このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200121となっている論文です。

PDF登録状況(公開日: 20200121)

TitleAuthorsAbstract論文公表日・翻訳日
# ダブルパスパラメトリック増幅によるファイバベース狭帯域発光

Fiber-based narrowband bright squeezed light generation by double-pass parametric amplification ( http://arxiv.org/abs/2001.07353v1 )

ライセンス: Link先を確認
Tianyi Tan, Changsheng Yang, Qilai Zhao, Chengzi Huang, Xianchao Guan, Zhongmin Yang, and Shanhui Xu(参考訳) 光の圧縮状態は、量子強化精度測定と量子情報の分野においてますます重要になる。 この重要な連続変数量子資源を得るためには、光を絞った状態の生成が鍵となる。 本稿では,小型通信用ファイバを用いたbsl(bright squeezed light)発電機について述べる。 私たちの知る限り、これまでBSLがファイバーベースシステムで報告されたのは今回が初めてです。 bslを得るには、表面被覆ニオブ酸リチウム導波路に基づくダブルパスパラメトリック増幅器を用いる。 パラメトリック増幅器の1550nmシードレーザーを遮断すると、安定した1.85dB圧縮真空が得られる。 注入されたシードパワー80.mu}Wでは、BSLが1550nmで18.mu}Wの出力パワーと1.04dBのスクイーズ値が得られる。 ファイバの良好なモードマッチングと共振キャビティの欠如により、この柔軟でコンパクトなbsl発電機は、実験室外の量子技術において有用である可能性がある。 さらに、BSLは狭帯域幅が30kHzであり、狭い直線幅の単一周波数シードレーザーから継承される。 波長依存性の損失から解放されるだけでなく、狭帯域BSLは量子強調精度測定の信号対雑音比を改善するためにも有用である。

The squeezed states of light become more and more important in the fields of quantum enhanced precision measurement and quantum information. To get this vital continuous variable quantum resource, the generation of squeezed states of light becomes a key factor. In this paper, a compact telecom fiber-based bright squeezed light (BSL) generator is demonstrated. To our knowledge, this is the first time that BSL has been reported in a fiber-based system to date. To obtain the BSL, a double-pass parametric amplifier based on surface-coated lithium niobate waveguide is employed. When the 1550 nm seed laser of the parametric amplifier is blocked, a stable 1.85 dB squeezed vacuum is obtained. With injected seed power of 80 {\mu}W, an output power of 18 {\mu}W and a squeezing value of 1.04 dB are achieved of the BSL at 1550 nm. Due to the good mode matching in the fiber and the absence of the resonant cavity, this flexible and compact BSL generator has the potential to be useful in out-of-the-laboratory quantum technologies. Moreover, the BSL has a narrow spectral width of 30 kHz, which is inherited from a narrow-linewidth single-frequency seed laser. In addition to being free from the wavelength-dependent losses, the narrowband BSL is also beneficial to improve the signal-to-noise ratio of quantum-enhanced precision measurement.
翻訳日:2023-06-06 11:38:44 公開日:2020-01-21
# マルチソースデータによる電気盗難行動の把握

Understanding Electricity-Theft Behavior via Multi-Source Data ( http://arxiv.org/abs/2001.07311v1 )

ライセンス: Link先を確認
Wenjie Hu, Yang Yang, Jianbo Wang, Xuanwen Huang, Ziqiang Cheng(参考訳) 電気盗難は、個別の電気料金を避けるために電気メーターで違法な操作を行うユーザーの行動であり、発展途上国ではよくある現象である。 電力網や公衆への有害性を考慮すると、電気盗難行動を自動的に認識する機械化手法がいくつか開発されている。 しかし,これらの手法は,ユーザの電気使用記録を主に評価するが,盗難戦術の多様性やユーザの行動の不規則さにより不十分である。 本稿では,マルチソースデータを用いた電気盗難行動の認識を提案する。 利用者の電気利用記録に加えて,変圧器領域の地域的要因(非技術的損失)と気候的要因(温度)を用いてユーザの行動を分析する。 例えば、電気泥棒は通常の利用者よりも電力を消費する傾向があり、特に極端に高温または低温下では電力を消費する。 これらの経験的観察に動機づけられ、電力泥棒を特定するための新しい階層的枠組みを更に設計する。 実世界のデータセットに基づく実験結果から,提案モデルでは,複数のベースラインと比較して,電気盗難検出において最高の性能(少なくともF0.5では3.0%)が得られることが示された。 最後に、当社の作業は中国の国定格子(State Grid of China)によって適用され、月々の現場調査において、香港の電気盗難を15%(同社が採用した他のいくつかのモデルで0%の精度で把握することに成功しました。

Electricity theft, the behavior that involves users conducting illegal operations on electrical meters to avoid individual electricity bills, is a common phenomenon in the developing countries. Considering its harmfulness to both power grids and the public, several mechanized methods have been developed to automatically recognize electricity-theft behaviors. However, these methods, which mainly assess users' electricity usage records, can be insufficient due to the diversity of theft tactics and the irregularity of user behaviors. In this paper, we propose to recognize electricity-theft behavior via multi-source data. In addition to users' electricity usage records, we analyze user behaviors by means of regional factors (non-technical loss) and climatic factors (temperature) in the corresponding transformer area. By conducting analytical experiments, we unearth several interesting patterns: for instance, electricity thieves are likely to consume much more electrical power than normal users, especially under extremely high or low temperatures. Motivated by these empirical observations, we further design a novel hierarchical framework for identifying electricity thieves. Experimental results based on a real-world dataset demonstrate that our proposed model can achieve the best performance in electricity-theft detection (e.g., at least +3.0% in terms of F0.5) compared with several baselines. Last but not least, our work has been applied by the State Grid of China and used to successfully catch electricity thieves in Hangzhou with a precision of 15% (an improvement form 0% attained by several other models the company employed) during monthly on-site investigation.
翻訳日:2023-06-06 11:37:23 公開日:2020-01-21
# 縮退励起ギャップを有する多バンド超伝導体

Multiband superconductors with degenerate excitation gaps ( http://arxiv.org/abs/2001.07531v1 )

ライセンス: Link先を確認
Paulo J. F. Cavalcanti, Tiago T. Saraiva, J. Albino Aguiar, A. Vagov, M. D. Croitoru, and A. A. Shanenko(参考訳) マルチバンド超伝導体は本質的にマルチギャップ超伝導体と同じであるという暗黙の仮定がある。 より正確には、一様超伝導体の単一粒子エネルギースペクトルにおける励起ギャップの数は、対応する超伝導モデルにおける寄与帯域の数を決定すると仮定される。 ここでは、この広く受け入れられている見解に反して、超伝導磁気特性は、対応する励起ギャップが縮退して区別できない場合でも、寄与帯域の数に敏感であることを示す。 特に, 超伝導型I型とII型の間の交差は, 複数の寄与凝縮体の特性的長さの違いによって強く影響されている。 この理由は、1つの系に共存する様々な特性長の凝縮が建設的または破壊的に干渉し、単一粒子励起スペクトルにおけるマルチギャップ構造の有無に関わらず多凝縮磁気現象を引き起こすためである。

There is a tacit assumption that multiband superconductors are essentially the same as multigap superconductors. More precisely, it is usually assumed that the number of excitation gaps in the single-particle energy spectrum of a uniform superconductor determines the number of contributing bands in the corresponding superconducting model. Here we demonstrate that contrary to this widely accepted viewpoint, the superconducting magnetic properties are sensitive to the number of contributing bands even when the corresponding excitation gaps are degenerate and cannot be distinguished. In particular, we find that the crossover between superconductivity types I and II - the intertype regime - is strongly affected by difference between characteristic lengths of multiple contributing condensates. The reason for this is that condensates with diverse characteristic lengths coexisting in one system interfere constructively or destructively, which results in multi-condensate magnetic phenomena regardless of the presence/absence of the multigap structure in the single-particle excitation spectrum.
翻訳日:2023-06-06 11:31:50 公開日:2020-01-21
# ホモダイン系フィードバック制御が量子速度制限時間に及ぼす影響

The effect of Homodyne-based feedback control on quantum speed limit time ( http://arxiv.org/abs/2001.07479v1 )

ライセンス: Link先を確認
S. Haseli(参考訳) システムが初期状態から目標状態への変換に必要な最小時間は、量子速度制限時間として定義される。 量子速度制限時間は、量子系の進化の最大速度を定量化するために適用することができる。 量子速度制限時間は、量子系の進化の速度と逆関係である。 つまり、短い量子速度制限時間は、量子進化のより高い速度を意味する。 本研究では,ホモダインに基づくフィードバック制御下での2レベル原子の量子速度制限時間について検討する。 その結果, フィードバック係数の増加により, 量子速度制限時間は減少することがわかった。 したがって、ホモダインベースのフィードバック制御は量子システムの進化をスピードアップさせる。

The minimal time a system requires to transform from an initial state to target state is defined as the quantum speed limit time. quantum speed limit time can be applied to quantify the maximum speed of the evolution of a quantum system. Quantum speed limit time is inversely related to the speed of evolution of a quantum system. That is, shorter quantum speed limit time means higher speed of quantum evolution. In this work, we study the quantum speed limit time of a two-level atom under Homodyne-based feedback control. The results show that the quantum speed limit time is decreased by increasing feedback coefficient. So, Homodyne-based feedback control can induce speedup the evolution of quantum system.
翻訳日:2023-06-06 11:30:59 公開日:2020-01-21
# van der waalsヘテロスタックにおける光生成層間励起子の凝縮特性

Condensation signatures of photogenerated interlayer excitons in a van der Waals heterostack ( http://arxiv.org/abs/2001.07567v1 )

ライセンス: Link先を確認
Lukas Sigl, Florian Sigger, Fabian Kronowetter, Jonas Kiemle, Julian Klein, Kenji Watanabe, Takashi Taniguchi, Jonathan J. Finley, Ursula Wurstbauer, and Alexander W. Holleitner(参考訳) 原子性ファンデルワールスヘテロスタックは、大きな励起子結合エネルギーと長い寿命のために高温励起子凝縮の理想的なシステムである。 電荷輸送と電子エネルギー損失分光は、このような2次元材料において励起多体状態の最初の証拠を示した。 光合成励起子の位相図にアクセスする最も明白な方法は、純粋な光学研究である。 mose2-wse2ヘテロスタックにホストされた光励起子アンサンブルにおける光発光強度、線幅、およびコヒーレント量子状態への遷移を指す時間コヒーレンスに関するいくつかの臨界性を観察した。 この状態では、占有率は100%であり、エキシトン拡散長が増加する。 この現象は予測された臨界凝縮温度と一致する10ケルビン以上で生き残る。 本研究は,ボース・アインシュタイン凝縮を含む多体間励起子の第1相図を提供する。

Atomistic van der Waals heterostacks are ideal systems for high-temperature exciton condensation because of large exciton binding energies and long lifetimes. Charge transport and electron energy-loss spectroscopy showed first evidence of excitonic many-body states in such two-dimensional materials. Pure optical studies, the most obvious way to access the phase diagram of photogenerated excitons have been elusive. We observe several criticalities in photogenerated exciton ensembles hosted in MoSe2-WSe2 heterostacks with respect to photoluminescence intensity, linewidth, and temporal coherence pointing towards the transition to a coherent quantum state. For this state, the occupation is 100 percent and the exciton diffusion length is increased. The phenomena survive above 10 kelvin, consistent with the predicted critical condensation temperature. Our study provides a first phase-diagram of many-body interlayer exciton states including Bose Einstein condensation.
翻訳日:2023-06-06 11:14:35 公開日:2020-01-21
# ガウス量子写像の非線形オンザガー関係

Non-linear Onsager relations for Gaussian quantum maps ( http://arxiv.org/abs/2001.07757v1 )

ライセンス: Link先を確認
Domingos S. P. Salazar and Gabriel T. Landi(参考訳) オンサーガーの関係は、熱力学の第2法則を基礎となる電流の項で表すことができる。 しかし、これらの関係は通常平衡に近いだけである。 第二法則の量子位相空間の定式化を用いて、開ボソニックガウス系は、平衡から任意に遠く離れたオンザガー関係にも従うことを示した。 しかし、これらの関係はより複雑な非線型函数によって与えられ、これは平衡に近い通常の二次形式に還元される。 この非線形性は、平衡から遠くて、系から浴場へのエントロピー流と逆流の間には基本的な非対称性が存在することを意味する。 従属散逸量子光学系における応用への応用についても考察した。

Onsager's relations allow one to express the second law of thermodynamics in terms of the underlying associated currents. These relations, however, are usually valid only close to equilibrium. Using a quantum phase space formulation of the second law, we show that open bosonic Gaussian systems also obey a set of Onsager relations, valid arbitrarily far from equilibrium. These relations, however, are found to be given by a more complex non-linear function, which reduces to the usual quadratic form close to equilibrium. This non-linearity implies that far from equilibrium, there exists a fundamental asymmetry between entropy flow from system to bath and vice-versa. The ramifications of this for applications in driven-dissipative quantum optical setups are also discussed.
翻訳日:2023-06-06 09:13:53 公開日:2020-01-21
# 中性基IV族ダイヤモンド中の人工原子クビットにおけるプロダクター効果による強スピン軌道焼成

Strong Spin-Orbit Quenching via the Product Jahn-Teller Effect in Neutral Group IV Artificial Atom Qubits in Diamond ( http://arxiv.org/abs/2001.07743v1 )

ライセンス: Link先を確認
Christopher J. Ciccarino, Johannes Flick, Isaac B. Harris, Matthew E. Trusheim, Dirk R. Englund and Prineha Narang(参考訳) ダイヤモンドの人工原子量子ビットは、量子センサーからメモリエンハンス量子通信の中継ノードまで、様々な固体量子システムの有力候補として浮上している。 Si、Ge、Sn、Pbのドーパントからなる反転対称基IV空孔中心は、中和された電子配置の結果、基底状態のスピン三重項となり、低温上における長いスピンコヒーレンスを可能にする。 しかし、これらの欠陥に対する大きな関心にもかかわらず、これらの中心の電子構造とスピン構造の理論的理解はいまだに解明されていない。 この文脈では、中立群IV色中心の基底状態および励起状態特性を第一原理から予測する。 励起状態多様体に見られるjahn-teller効果を電子-フォノンカップリングで第2位まで捕獲し、スピン軌道結合の効果の非摂動的処理を示す。 重要なことに、スピン軌道分割は支配的なjahn-teller効果により強く緩められ、最も低い光学活性の$^3e_u$状態は$m_s$-resolved状態に分割されている。 ニュートラルグループiv色中心の複雑なビブロンスペクトルは、実験的な同定に必須であり、量子情報科学におけるこれらのシステムの使用に重要な意味を持つ。

Artificial atom qubits in diamond have emerged as leading candidates for a range of solid-state quantum systems, from quantum sensors to repeater nodes in memory-enhanced quantum communication. Inversion-symmetric group IV vacancy centers, comprised of Si, Ge, Sn and Pb dopants, hold particular promise as their neutrally charged electronic configuration results in a ground-state spin triplet, enabling long spin coherence above cryogenic temperatures. However, despite the tremendous interest in these defects, a theoretical understanding of the electronic and spin structure of these centers remains elusive. In this context, we predict the ground- and excited-state properties of the neutral group IV color centers from first principles. We capture the product Jahn-Teller effect found in the excited state manifold to second order in electron-phonon coupling, and present a non-perturbative treatment of the effect of spin-orbit coupling. Importantly, we find that spin-orbit splitting is strongly quenched due to the dominant Jahn-Teller effect, with the lowest optically-active $^3E_u$ state weakly split into $m_s$-resolved states. The predicted complex vibronic spectra of the neutral group IV color centers are essential for their experimental identification and have key implications for use of these systems in quantum information science.
翻訳日:2023-06-06 09:13:39 公開日:2020-01-21
# 量子ドットアレイにおけるトンネル結合の効率的直交制御

Efficient orthogonal control of tunnel couplings in a quantum dot array ( http://arxiv.org/abs/2001.07671v1 )

ライセンス: Link先を確認
T.-K. Hsiao, C. J. van Diepen, U. Mukhopadhyay, C. Reichl, W. Wegscheider and L. M. K. Vandersypen(参考訳) 静電的に定義された半導体量子ドットアレイは、量子計算と量子シミュレーションに有望なプラットフォームを提供する。 しかし、ドット電位とドット間トンネル結合に対するゲート電圧のクロストークは、デバイスパラメータのチューニングを複雑にする。 これまで、ドットポテンシャルへのクロストークは、物理ゲート電圧の線形結合であるいわゆる仮想ゲートを用いて、日常的かつ効率的に補償される。 しかし、ゲート電圧にトンネル結合が指数関数的に依存するため、トンネルバリアへのクロストークは現在、遅い反復過程によって補償されている。 本研究では,同じ指数依存性がすべてのゲートに適用されるという事実を用いて,トンネルバリアのクロストークを効率的に特徴付け,補償できることを示す。 四重極量子ドットアレイにおけるクロストークの効率的なキャリブレーションを示し、仮想バリアゲートのセットを定義し、全てのドット間トンネル結合の直交制御を示す。 提案手法は,大規模量子ドットアレイのチューニングプロセスのスケーラビリティにおいて重要な一歩となる。

Electrostatically-defined semiconductor quantum dot arrays offer a promising platform for quantum computation and quantum simulation. However, crosstalk of gate voltages to dot potentials and inter-dot tunnel couplings complicates the tuning of the device parameters. To date, crosstalk to the dot potentials is routinely and efficiently compensated using so-called virtual gates, which are specific linear combinations of physical gate voltages. However, due to exponential dependence of tunnel couplings on gate voltages, crosstalk to the tunnel barriers is currently compensated through a slow iterative process. In this work, we show that the crosstalk on tunnel barriers can be efficiently characterized and compensated for, using the fact that the same exponential dependence applies to all gates. We demonstrate efficient calibration of crosstalk in a quadruple quantum dot array and define a set of virtual barrier gates, with which we show orthogonal control of all inter-dot tunnel couplings. Our method marks a key step forward in the scalability of the tuning process of large-scale quantum dot arrays.
翻訳日:2023-06-06 09:12:42 公開日:2020-01-21
# 等方性2次元高調波発振器のための新しいスクイーズ状態の構成法

A new method for constructing squeezed states for the isotropic 2D harmonic oscillator ( http://arxiv.org/abs/2001.07652v1 )

ライセンス: Link先を確認
James Moran, V\'eronique Hussin(参考訳) 2次元等方性高調波発振器のスクイーズ状態を構成する新しい方法を提案する。 [1] におけるコヒーレント状態の構成に基づいて、2D 系の新しいラグ作用素の集合を x と y のラグ作用素の線型結合として定義し、SU(2) のコヒーレント状態を構成する。 新たなラグ作用素は、スクイーズ作用素を2Dに一般化するために使用され、SU(2)コヒーレント状態は、2D圧縮状態の拡大においてフォック状態の役割を担う。 2次元圧縮状態の諸性質について考察する。

We introduce a new method for constructing squeezed states for the 2D isotropic harmonic oscillator. Based on the construction of coherent states in [1], we define a new set of ladder operators for the 2D system as a linear combination of the x and y ladder operators and construct the SU(2) coherent states. The new ladder operators are used for generalizing the squeezing operator to 2D and the SU(2) coherent states play the role of the Fock states in the expansion of the 2D squeezed states. We discuss some properties of the 2D squeezed states.
翻訳日:2023-06-06 09:11:54 公開日:2020-01-21
# 超強導波路QEDにおける境界状態

Bound states in ultrastrong waveguide QED ( http://arxiv.org/abs/2001.07643v1 )

ライセンス: Link先を確認
Juan Rom\'an-Roche, Eduardo S\'anchez-Burillo, David Zueco(参考訳) 有限帯域導波路QEDにおける束縛状態の特性を,光物質結合モデルを保存する回転波近似あるいは励起数を超えて論じる。 したがって、emph{standard}計算を、特に超強結合法(ultrastrong coupling regime)において、より広い範囲の光・物質強度に拡張する。 ポラロン技術を使ってこれを行います 主な成果は以下の通りである。 我々は,フェルミの黄金律式と比較して再正規化される自然放出率を計算する。 我々は,有界状態の存在条件,その性質,および量子熱化におけるその役割を一般化する。 真空揺らぎと境界状態の両方を通してスピンスピン相互作用を効果的に議論する。 最後に、遠隔エミッタ間の完全な状態転送プロトコルをスケッチする。

We discuss the properties of bound states in finite-bandwidth waveguide QED beyond the Rotating Wave Approximation or excitation number conserving light-matter coupling models. Therefore, we extend the \emph{standard} calculations to a broader range of light-matter strengths, in particular, in the so-called ultrastrong coupling regime. We do this using the Polaron technique. Our main results are as follows. We compute the spontaneous emission rate, which is renormalized as compared to the Fermi Golden Rule formula. We generalise the existence criteria for bound states, their properties and their role in the qubits thermalization. We discuss effective spin-spin interactions through both vacuum fluctuations and bound states. Finally, we sketch a perfect state-transfer protocol among distant emitters.
翻訳日:2023-06-06 09:11:42 公開日:2020-01-21
# 文化的多様性はなぜ技術による世代間コラボレーションを実現するのか?

Why Does Cultural Diversity Foster Technology-enabled Intergenerational Collaboration? ( http://arxiv.org/abs/2001.07630v1 )

ライセンス: Link先を確認
Irawan Nurhas, Bayu Rima Aditya, Stefan Geisler, Jan Pawlowski(参考訳) グローバル化と情報技術により、人々は国境のない世界市民権運動に参加できる。 しかし、異なる世代が関わる今日の職場環境において、コラボレーションに影響を与えるさまざまな種類の障壁が存在しました。 研究者らは、世代間コラボレーション(iGOAL)の技術的障壁をいくつか特定しているが、iGOALに対する文化的多様性の影響はめったに研究されていない。 そこで,本稿では,文化背景の違いがイゴールに対する技術的・操作的障壁に与える影響を定量的に検討する。 本研究は, 文化的に多様な人々 (CDP) と非CDP (非CDP) によって異なる認識のICCに対する6つの障壁を明らかにする。 さらに、CDPがIGCを育むのは、CDPが障壁を非CDPよりも異なる世代での作業を避ける理由であると考えているからである。

Globalization and information technology enable people to join the movement of global citizenship and work without borders. However, different type of barriers existed that could affect collaboration in todays work environment, in which different generations are involved. Although researchers have identified several technical barriers to intergenerational collaboration (iGOAL), the influence of cultural diversity on iGOAL has rarely been studied. Therefore, using a quantitative study approach, this paper investigates the impact of differences in cultural background on perceived technical and operational barriers to iGOAL. Our study reveals six barriers to IGC that are perceived differently by culturally diverse people (CDP) and non-CDP. Furthermore, CDP can foster IGC because CDP consider the barriers to be of less of a reason to avoid working with different generations than do non-CDP.
翻訳日:2023-06-06 09:11:31 公開日:2020-01-21
# 代数ボゾン化のジェネリックな例

Generic example of algebraic bosonisation ( http://arxiv.org/abs/2003.02259v1 )

ライセンス: Link先を確認
Katarina Ro\v{z}man and D. K. Sunko(参考訳) 3次元調和振動子井戸内の2つの同一の非相互作用フェルミオンは、最近開発された一般代数スキームに従って正確にボゾン化される。 回転不変性は初めてスキーム内で考慮される。 この例は有限系の励起スペクトル、特にスペクトルのバンドの出現に対して一般的なものである。 分数量子ホール効果の形式性との関係が指摘されている。

Two identical non-interacting fermions in a three-dimensional harmonic oscillator well are bosonised exactly according to a recently developed general algebraic scheme. Rotational invariance is taken into account within the scheme for the first time. The example is generic for the excitation spectra of finite systems, in particular for the appearance of bands in spectra. A connection to the formalism of the fractional quantum Hall effect is pointed out.
翻訳日:2023-06-06 09:03:44 公開日:2020-01-21
# スマートコントラクトベースのアプリケーションを可能にするブロックチェーン - ソフトウェア開発ライフサイクルモデルの欠陥

Blockchain Enabled Smart Contract Based Applications: Deficiencies with the Software Development Life Cycle Models ( http://arxiv.org/abs/2001.10589v1 )

ライセンス: Link先を確認
Mahdi H. Miraz and Maaruf Ali(参考訳) Blockchainと他のDistributed Ledger Technologies(DLT)の最近の人気により、ブロックチェーンが有効になったスマートコントラクトアプリケーションは、研究の焦点が増している。 しかし、スマートコントラクトが格納されているブロックの不変性は、従来のソフトウェア開発ライフサイクル(SDLC)モデルと相反する。 これは、ブロックチェーンの設計におけるsdlcの適用がスマートコントラクトベースのアプリケーションに対して不適切であることを明確に示している。 この記事では、まず6つの伝統的なsdlcモデルを探求し、スマートコントラクトの適用によるテーブル内の衝突を明確に特定し、発生した問題に対処するために、緊急に新しい標準モデルを開発する必要があることを提唱する。 ブロック不変性と契約の両方の概念が導入される。 これは、レガシーなスマートコントラクトとブロックチェーンによって実現されたスマートコントラクトの歴史的なコンテキストにおいて、"スマートコントラクトの制限"と"ディープスマートコントラクト(deep smart contracts)"の違いにまで拡張される。 結論として、従来のSDLCモデルは、ブロックチェーンを有効にしたスマートコントラクトベースのアプリケーションには適さない。

With the recent popularity of Blockchain and other Distributed Ledger Technologies (DLT), blockchain enabled smart contract applications has attracted increased research focus. However, the immutability of the blocks, where the smart contracts are stored, causes conflicts with the traditional Software Development Life Cycle (SDLC) models usually followed by software engineers. This clearly shows the unsuitability of the application of SDLC in designing blockchain enabled smart contract based applications. This research article addresses this current problem by first exploring the six traditional SDLC models, clearly identifying the conflicts in a table with the application of smart contracts and advocates that there is an urgent need to develop new standard model(s) to address the arising issues. The concept of both block immutability and contract is introduced. This is further set in a historical context from legacy smart contracts and blockchain enabled smart contracts extending to the difference between "shallow smart contracts" and "deep smart contracts". To conclude, the traditional SDLC models are unsuitable for blockchain enabled smart contract-based applications.
翻訳日:2023-06-06 09:03:39 公開日:2020-01-21
# 自然および生体神経膜 : 量子生物学の場としての可能性

Natural and bionic neuronal membranes: possible sites for quantum biology ( http://arxiv.org/abs/2001.08522v1 )

ライセンス: Link先を確認
Lee Smolin(参考訳) バイオニック量子技術の新たな概念は、生体細胞膜に見られるようなリン脂質膜を層状にしたシリコンウェハのハイブリッドに基づいて提示される。 膜の頭部のリン原子は、メモリ量子ビットとして機能する核スピンを持つ。 制御量子ビットの役割は、ホスファチジルコリン(pc)のような極性zwitterionicな主群において、単一の負電荷を持つリン酸基に余分な電子の対向スピンが作用する。 古典的な制御ゲートと回路はシリコンウェハーに埋め込まれており、ケインらが固体量子コンピューティングデバイスのために提案している。 バルクを構成するリン脂質分子のキラリティを利用する神経膜にこれらのアイデアを拡大する提案も、簡潔にスケッチされている。 リン脂質分子のキラリティーは、少なくとも低温ではチャーン-シモンカップリングを誘導し、イオンチャネルであるシリンダー・モッド・パンクチャー上に定義された位相的巻き付け状態においてロバストな量子ビットを生じる可能性がある。

A new concept for bionic quantum technology is presented based on a hybrid of a silicon wafer on which is layered a phospholipid membrane, such as is found in biological cell membranes. The phosphorus atoms in the head groups of the membranes carry nuclear spins which serve as memory qubits. The role of control qubits may be played by unpaired spins of extra electrons on phosphate groups with a single negative charge, in polar, zwitterionic headgroups such as phosphatidylcholine (PC). Classical control gates and circuits are embedded on the silicon wafer, as in proposals by Kane and others for solid state quantum computing devices. A proposal to extend these ideas to neuronal membranes, which makes use of the chirality of the phospholipid molecules that make up its bulk, is also briefly sketched. The chirality of the phospholipid molecules is argued, at least at low temperature, to induce Chern-Simons couplings, which may give rise to robust qubits in topological winding states, defined on the cylinder mod punctures-which are the ion channels.
翻訳日:2023-06-06 09:03:22 公開日:2020-01-21
# 隠れる場所:生体認証とデバイス間のクロスモーダルid漏洩

Nowhere to Hide: Cross-modal Identity Leakage between Biometrics and Devices ( http://arxiv.org/abs/2001.08211v1 )

ライセンス: Link先を確認
Chris Xiaoxuan Lu, Yang Li, Yuanbo Xiangli and Zhengxiong Li(参考訳) iot(internet of things, モノのインターネット)のメリットとともに、何十億ものデバイスがユーザの情報を追跡し、インターネット上の他の当事者と通信する権限を付与されるため、潜在的なプライバシーリスクが生じる。 特に敵に対する関心は、攻撃を開始する上で常に重要な役割を果たすユーザーアイデンティティである。 特定の物理バイオメトリックスやデバイスアイデンティティーの暴露は広範囲に研究されているが、マルチモーダルセンシング環境では、両側からの漏洩の複合効果は分かっていない。 本研究では,サイバー物理空間にまたがる複合ID漏洩の可能性を探り,スマートフォンのMACアドレスなど)と物理バイオメトリックス(顔と声のサンプルなど)が互いにサイドチャネルであることを明らかにする。 その結果,本手法は野生の様々な観測ノイズに対して頑健であり,攻撃者は解析をほぼゼロで多次元の被害者を包括的にプロファイルできることがわかった。 異なるバイオメトリックスとデバイスIDに関する2つの実世界実験は、提案されたアプローチがデバイスIDの70%以上を妥協し、同時に94%の純度を持つ複数のバイオメトリッククラスタを収穫することを示した。

Along with the benefits of Internet of Things (IoT) come potential privacy risks, since billions of the connected devices are granted permission to track information about their users and communicate it to other parties over the Internet. Of particular interest to the adversary is the user identity which constantly plays an important role in launching attacks. While the exposure of a certain type of physical biometrics or device identity is extensively studied, the compound effect of leakage from both sides remains unknown in multi-modal sensing environments. In this work, we explore the feasibility of the compound identity leakage across cyber-physical spaces and unveil that co-located smart device IDs (e.g., smartphone MAC addresses) and physical biometrics (e.g., facial/vocal samples) are side channels to each other. It is demonstrated that our method is robust to various observation noise in the wild and an attacker can comprehensively profile victims in multi-dimension with nearly zero analysis effort. Two real-world experiments on different biometrics and device IDs show that the presented approach can compromise more than 70\% of device IDs and harvests multiple biometric clusters with ~94% purity at the same time.
翻訳日:2023-06-06 09:02:42 公開日:2020-01-21
# 漏洩源を用いた測定デバイス非依存量子鍵分布

Measurement-Device-Independent Quantum Key Distribution with Leaky Sources ( http://arxiv.org/abs/2001.08086v1 )

ライセンス: Link先を確認
Weilong Wang, Kiyoshi Tamaki, and Marcos Curty(参考訳) 測定デバイスに依存しない量子鍵分布(MDI-QKD)は、量子通信システムから全ての検出側チャネルを除去することができる。 しかし、セキュリティ証明は、ソースに関する特定の仮定が満足していることを要求する。 これは例えば、送信者の送信機から情報漏れがないという要件を含むが、残念ながら、実際に保証するのは極めて困難である。 本稿では、MDI-QKDのセキュリティをリークソースで証明するために、一般形式を提示することで、この非現実的な仮定を緩和する。 この定式化により,2つのMDI-QKDスキーム – 対称3強度デコイ状態MDI-QKDプロトコルと4強度デコイ状態MDI-QKDプロトコル – の有限鍵セキュリティを解析し,送信機の強度変調器と位相変調器の両方からの情報漏洩に対するロバスト性を決定する。 本研究は,mdi-qkdを信号伝送の適切な時間枠内で実現可能であることを示す。 したがって、MDI-QKDの実験的な実装の安全性を情報漏洩の存在下で確保するために、実験者にとって重要な基準を提供する。

Measurement-device-independent quantum key distribution (MDI-QKD) can remove all detection side-channels from quantum communication systems. The security proofs require, however, that certain assumptions on the sources are satisfied. This includes, for instance, the requirement that there is no information leakage from the transmitters of the senders, which unfortunately is very difficult to guarantee in practice. In this paper we relax this unrealistic assumption by presenting a general formalism to prove the security of MDI-QKD with leaky sources. With this formalism, we analyze the finite-key security of two prominent MDI-QKD schemes - a symmetric three-intensity decoy-state MDI-QKD protocol and a four-intensity decoy-state MDI-QKD protocol - and determine their robustness against information leakage from both the intensity modulator and the phase modulator of the transmitters. Our work shows that MDI-QKD is feasible within a reasonable time frame of signal transmission given that the sources are sufficiently isolated. Thus, it provides an essential reference for experimentalists to ensure the security of experimental implementations of MDI-QKD in the presence of information leakage.
翻訳日:2023-06-06 09:02:20 公開日:2020-01-21
# leeモデル: 崩壊を研究するためのツール

The Lee model: a tool to study decays ( http://arxiv.org/abs/2001.07781v1 )

ライセンス: Link先を確認
Francesco Giacosa(参考訳) いわゆるleeモデル(jaynes-cummingsとfriedrichsモデルと類似点を共有している)を、不安定な量子状態/粒子を研究するツールとして記述する。 このリーモデルは量子力学(QM)に基づいているが、量子場理論(QFT)の特徴を持っている。 崩壊過程は詳細に研究でき、プロパゲータ、ワンループ再仮定、ファインマン則などの典型的なQFT量を導入することができる。 指数崩壊の法則からの逸脱と量子ゼノ効果は、この枠組みの中で研究することができる。 エネルギー分布のフーリエ変換としての生存確率振幅、後者の正規化、ブライト・ウィグナー極限は厳密な数学的アプローチで得られる。

We describe -- in a didactical and detailed way -- the so-called Lee model (which shares similarities with the Jaynes-Cummings and Friedrichs models) as a tool to study unstable quantum states/particles. This Lee model is based on Quantum Mechanics (QM) but possesses some of the features of Quantum Field Theory (QFT). The decay process can be studied in great detail and typical QFT quantities such as propagator, one-loop resummation, and Feynman rules can be introduced. Deviations from the exponential decay law as well as the Quantum Zeno effects can be studied within this framework. The survival probability amplitude as a Fourier transform of the energy distribution, the normalization of the latter, and the Breit-Wigner limit can be obtained in a rigorous mathematical approach.
翻訳日:2023-06-06 09:01:59 公開日:2020-01-21
# 低密度状態における分子のバッファーガス冷却:シミュレーションと実験の比較

Buffer-gas cooling of molecules in the low-density regime: Comparison between simulation and experiment ( http://arxiv.org/abs/2001.07759v1 )

ライセンス: Link先を確認
Thomas Gantner, Manuel Koller, Xing Wu, Gerhard Rempe, Martin Zeppenfeld(参考訳) 低温の緩衝性ガス細胞は、ここ数十年で分子の冷却に役立っている。 直感的な交感神経冷却原理は、様々な種類の種に適用できる。 この成功にもかかわらず、バッファーガスセルの詳細なシミュレーションはまれであり、低-中間バッファーガス密度の状態での実験データと比較されたことはない。 そこで本研究では, 分子が均一なバッファーガスとの衝突によりセル内をランダムに歩行する, 軌道解析に基づく数値解析手法を提案する。 この方法は、バッファガスセルから生じる分子の実験的フラックスと速度分布を再現し、バッファガス密度を変化させることができる。 これには、バッファーガス密度を増加させるために細胞から出力される分子の強い減少と、セルを離れた後にバッファーガス原子によって分子が加速されるいわゆる促進効果が含まれる。 シミュレーションはバッファーガスセルの設計を大幅に改善する様々な洞察を提供する。

Cryogenic buffer gas cells have been a workhorse for the cooling of molecules in the last decades. The straightforward sympathetic cooling principle makes them applicable to a huge variety of different species. Notwithstanding this success, detailed simulations of buffer gas cells are rare, and have never been compared to experimental data in the regime of low to intermediate buffer gas densities. Here, we present a numerical approach based on a trajectory analysis, with molecules performing a random walk in the cell due to collisions with a homogeneous buffer gas. This method can reproduce experimental flux and velocity distributions of molecules emerging from the buffer gas cell for varying buffer gas densities. This includes the strong decrease in molecule output from the cell for increasing buffer gas density and the so-called boosting effect, when molecules are accelerated by buffer-gas atoms after leaving the cell. The simulations provide various insights which could substantially improve buffer-gas cell design.
翻訳日:2023-06-06 09:01:00 公開日:2020-01-21
# ニューロン1個につき最大1つのスパイクで画像を認識する

Recognizing Images with at most one Spike per Neuron ( http://arxiv.org/abs/2001.01682v3 )

ライセンス: Link先を確認
Christoph St\"ockl and Wolfgang Maass(参考訳) 訓練された人工知能ニューラルネットワーク(ANN)の性能をスパイクニューラルネットワーク(SNN)に移植するためには、エネルギー消費を大幅に削減したニューロモルフィックハードウェアで実装できるため、効率的なANNからSNNへの変換が必要である。 従来の変換方式は、スパイキングニューロンの発火速度によるANNにおける整流線形(ReLU)ゲートのアナログ出力の表現に焦点を当てていた。 しかし、これは他の一般的なANNゲートでは不可能であり、ReLUゲートでもスループットが低下する。 我々は、ANN内のゲートが基本的に任意の種類のニューロンの小さな回路でエミュレートされる新しい変換法を導入し、ニューロン当たりのAt Most One Spike (AMOS) を導入する。 このAMOS変換により、ImageNetのSNNの精度が74.60%から80.97%に向上し、最高のANN精度(85.0%)に到達できることが示されている。 SNNのTop5精度は95.82%に引き上げられ、ANNのTop5パフォーマンスは97.2%に近づいた。 さらに、AMOS変換は、スパイクベースの画像分類のレイテンシとスループットを数桁改善する。 したがって、これらの結果から、SNNは、高性能とアプリケーションの汎用性を組み合わせた高エネルギー効率なAIハードウェアを開発するための実行可能な方向性を提供すると考えられる。

In order to port the performance of trained artificial neural networks (ANNs) to spiking neural networks (SNNs), which can be implemented in neuromorphic hardware with a drastically reduced energy consumption, an efficient ANN to SNN conversion is needed. Previous conversion schemes focused on the representation of the analog output of a rectified linear (ReLU) gate in the ANN by the firing rate of a spiking neuron. But this is not possible for other commonly used ANN gates, and it reduces the throughput even for ReLU gates. We introduce a new conversion method where a gate in the ANN, which can basically be of any type, is emulated by a small circuit of spiking neurons, with At Most One Spike (AMOS) per neuron. We show that this AMOS conversion improves the accuracy of SNNs for ImageNet from 74.60% to 80.97%, thereby bringing it within reach of the best available ANN accuracy (85.0%). The Top5 accuracy of SNNs is raised to 95.82%, getting even closer to the best Top5 performance of 97.2% for ANNs. In addition, AMOS conversion improves latency and throughput of spike-based image classification by several orders of magnitude. Hence these results suggest that SNNs provide a viable direction for developing highly energy efficient hardware for AI that combines high performance with versatility of applications.
翻訳日:2023-01-17 01:59:46 公開日:2020-01-21
# BIRL:ランドマーク検証による画像登録手法のベンチマーク

BIRL: Benchmark on Image Registration methods with Landmark validation ( http://arxiv.org/abs/1912.13452v2 )

ライセンス: Link先を確認
Jiri Borovec(参考訳) 本報告では,ランドマークアノテーションを用いた画像登録ベンチマークを自動評価する。 BIRLフレームワークの主な特徴は、容易に拡張可能、パフォーマンス評価、並列実験、単純な視覚化、実験のタイムアウト制限、未完成の実験再開である。 研究の実践から、我々はこれらの2つの主要なユースケースを特定し、焦点を当てた。 (a)共通データセットにおけるユーザ(新規に開発された)メソッドと最先端(sota)メソッドの比較 b) ユーザのカスタムデータセット(ランドマークアノテーションを含むべきである)上でSOTAメソッドを実験する。 さらに,BIRLフレームワークへのバイオメディカルイメージングを目的とした,いくつかの標準画像登録手法を統合する。 本報告では,3種類の組織から得られた複数の組織サンプルを含む組織・病理組織から全スライスイメージング(WSI)のデータセットであるCIMAデータセット上で,これらのSOTA法の実験結果についても報告する。 ソースと結果: https://borda.github.io/birl

This report presents a generic image registration benchmark with automatic evaluation using landmark annotations. The key features of the BIRL framework are: easily extendable, performance evaluation, parallel experimentation, simple visualisations, experiment's time-out limit, resuming unfinished experiments. From the research practice, we identified and focused on these two main use-cases: (a) comparison of user's (newly developed) method with some State-of-the-Art (SOTA) methods on a common dataset and (b) experimenting SOTA methods on user's custom dataset (which should contain landmark annotation). Moreover, we present an integration of several standard image registration methods aiming at biomedical imaging into the BIRL framework. This report also contains experimental results of these SOTA methods on the CIMA dataset, which is a dataset of Whole Slice Imaging (WSI) from histology/pathology containing several multi-stain tissue samples from three tissue kinds. Source and results: https://borda.github.io/BIRL
翻訳日:2023-01-16 21:26:56 公開日:2020-01-21
# i do: 空間的制約と時間的制約を伴う単眼ビデオ間の人間の動きと外観の伝達

Do As I Do: Transferring Human Motion and Appearance between Monocular Videos with Spatial and Temporal Constraints ( http://arxiv.org/abs/2001.02606v2 )

ライセンス: Link先を確認
Thiago L. Gomes and Renato Martins and Jo\~ao Ferreira and Erickson R. Nascimento(参考訳) 現実の俳優の画像から妥当な仮想アクターを作成することは、コンピュータビジョンとコンピュータグラフィックスの重要な課題の1つだ。 画像からのマーカレス人間の動き推定と形状モデリングは、この課題を先進国にもたらす。 近年の映像合成やイメージ・ツー・イメージ翻訳の進歩はあったが、現在利用可能な定式化は、文字の運動や形状を考慮せず、人間の形を形作るために自然と混ざり合っている。 本稿では,これらをすべて考慮した単眼映像から人間の動きを移動・再ターゲティングするための統一的な定式化を提案する。 本手法は、当初記録されていた異なる文脈の人々の新しい映像を合成する。 近年の外観伝達法と異なり, 身体形状, 外観, 運動の制約を考慮したアプローチである。 硬い条件を含む実映像を公開して,いくつかの実験により評価を行った。 提案手法は, 人間の動作と外観の両面において, 維持すべき動作の特徴(例えば, 床に触れたり, 特定の物体に触れたり)を保ちながら, 構造的類似度(SSIM)や学習された知覚的イメージパッチ類似度(LPIPS)などの最高の視覚的品質と外観的指標を保持することができる。

Creating plausible virtual actors from images of real actors remains one of the key challenges in computer vision and computer graphics. Marker-less human motion estimation and shape modeling from images in the wild bring this challenge to the fore. Although the recent advances on view synthesis and image-to-image translation, currently available formulations are limited to transfer solely style and do not take into account the character's motion and shape, which are by nature intermingled to produce plausible human forms. In this paper, we propose a unifying formulation for transferring appearance and retargeting human motion from monocular videos that regards all these aspects. Our method synthesizes new videos of people in a different context where they were initially recorded. Differently from recent appearance transferring methods, our approach takes into account body shape, appearance, and motion constraints. The evaluation is performed with several experiments using publicly available real videos containing hard conditions. Our method is able to transfer both human motion and appearance outperforming state-of-the-art methods, while preserving specific features of the motion that must be maintained (e.g., feet touching the floor, hands touching a particular object) and holding the best visual quality and appearance metrics such as Structural Similarity (SSIM) and Learned Perceptual Image Patch Similarity (LPIPS).
翻訳日:2023-01-13 12:40:42 公開日:2020-01-21
# ガウス領域におけるパラメータ推定のための時間局所最適制御

Time-local optimal control for parameter estimation in the Gaussian regime ( http://arxiv.org/abs/2001.03551v2 )

ライセンス: Link先を確認
Alexander Predko, Francesco Albarelli and Alessio Serafini(参考訳) 量子状態に符号化された古典的パラメータに関する情報は、状態が環境との相互作用から生じる非単体進化を行う場合にのみ減少する。 しかし、オープンダイナミクスによって引き起こされる情報の減少を緩和するために、瞬時制御ユニタリを使用することができる。 そのような制御に対して可能な局所的最適(時間的)選択は、初期状態で符号化されたパラメータに関連する量子フィッシャー情報(qfi)の時間導出を最大化するものである。 本研究では,マルコフ型サーマルマスター方程式を対象とする単一ボソニックモードに着目し,初期スクイーズ角度(光学位相)と強度に対するQFIの最適時間-局所制御を解析的に決定する。 そこで本研究では, 単一初期制御操作が既に最適であることを示すとともに, 開動力学的進化が始まってから最適制御が適用される状況について定量的に検討する。

Information about a classical parameter encoded in a quantum state can only decrease if the state undergoes a non-unitary evolution, arising from the interaction with an environment. However, instantaneous control unitaries may be used to mitigate the decrease of information caused by an open dynamics. A possible, locally optimal (in time) choice for such controls is the one that maximises the time-derivative of the quantum Fisher information (QFI) associated with a parameter encoded in an initial state. In this study, we focus on a single bosonic mode subject to a Markovian, thermal master equation, and determine analytically the optimal time-local control of the QFI for its initial squeezing angle (optical phase) and strength. We show that a single initial control operation is already optimal for such cases and quantitatively investigate situations where the optimal control is applied after the open dynamical evolution has begun.
翻訳日:2023-01-12 23:21:47 公開日:2020-01-21
# 短期的・長期的超越--ai倫理と社会における研究優先事項の明確化に向けて

Beyond Near- and Long-Term: Towards a Clearer Account of Research Priorities in AI Ethics and Society ( http://arxiv.org/abs/2001.04335v2 )

ライセンス: Link先を確認
Carina Prunkl and Jess Whittlestone(参考訳) 近年出現した「AI倫理と社会」研究空間を彫る一つの方法は、「近い」研究と「長期的な」研究を区別することである。 このような研究領域を分割する方法は有用であるが、研究の課題や優先順位の枠組みにおいて、近・長期の区別が過大評価されるのではないかという懸念を提起する。 我々は、この区別方法の曖昧さと矛盾を強調し、この広い研究コミュニティには優先順位が異なるが、これらの違いは、近・長期の区別によってうまく捉えられていないと論じる。 近・長期の区別を4つの異なる次元に解き、研究者がこれらの次元を使って作業や優先順位についてより明確にコミュニケーションできる方法を提案する。 研究優先順位に関するより曖昧な議論へと進むことは、コラボレーションのための新たな機会を確立し、より一貫性と一貫性のある研究課題の開発を支援し、これまで無視されていた研究領域の特定を可能にすることを提案する。

One way of carving up the broad "AI ethics and society" research space that has emerged in recent years is to distinguish between "near-term" and "long-term" research. While such ways of breaking down the research space can be useful, we put forward several concerns about the near/long-term distinction gaining too much prominence in how research questions and priorities are framed. We highlight some ambiguities and inconsistencies in how the distinction is used, and argue that while there are differing priorities within this broad research community, these differences are not well-captured by the near/long-term distinction. We unpack the near/long-term distinction into four different dimensions, and propose some ways that researchers can communicate more clearly about their work and priorities using these dimensions. We suggest that moving towards a more nuanced conversation about research priorities can help establish new opportunities for collaboration, aid the development of more consistent and coherent research agendas, and enable identification of previously neglected research areas.
翻訳日:2023-01-11 23:45:23 公開日:2020-01-21
# 画像に基づく物体再同定のための不確実性を考慮したマルチショット知識蒸留

Uncertainty-Aware Multi-Shot Knowledge Distillation for Image-Based Object Re-Identification ( http://arxiv.org/abs/2001.05197v2 )

ライセンス: Link先を確認
Xin Jin, Cuiling Lan, Wenjun Zeng, Zhibo Chen(参考訳) オブジェクト再識別(re-id)は、特定のオブジェクトを時間やカメラのビューで識別することを目的としている。 Re-idは視点、(人間)ポーズ、およびオクルージョンのバリエーションによって困難である。 同じオブジェクトのマルチショットは様々な視点や状況をカバーし、より包括的な情報を提供する。 本稿では,同一人物のマルチショットを利用して個々の画像の特徴学習を指導する手法を提案する。 具体的には,Uncertainty-aware Multi-shot Teacher-Student (UMTS) ネットワークを設計する。 それは、同一物体の複数の画像から包括的特徴を学習する教師ネットワーク(T-net)と、1つの画像を入力として取る学生ネットワーク(S-net)から構成される。 特に、T-netからS-netへ効果的に知識を転送するためのデータ依存的ヘテロセダスティック不確実性を考慮する。 私たちの知識を最大限に活用するために、私たちは教師-学生の学習方法でオブジェクトのマルチショットを初めて活用し、単一の画像ベースのre-idを効果的に強化する。 提案手法の有効性を,一般的な車種と個人用車種に検証した。 推測では、Sネットのみがベースラインを著しく上回り、最先端の性能を達成する。

Object re-identification (re-id) aims to identify a specific object across times or camera views, with the person re-id and vehicle re-id as the most widely studied applications. Re-id is challenging because of the variations in viewpoints, (human) poses, and occlusions. Multi-shots of the same object can cover diverse viewpoints/poses and thus provide more comprehensive information. In this paper, we propose exploiting the multi-shots of the same identity to guide the feature learning of each individual image. Specifically, we design an Uncertainty-aware Multi-shot Teacher-Student (UMTS) Network. It consists of a teacher network (T-net) that learns the comprehensive features from multiple images of the same object, and a student network (S-net) that takes a single image as input. In particular, we take into account the data dependent heteroscedastic uncertainty for effectively transferring the knowledge from the T-net to S-net. To the best of our knowledge, we are the first to make use of multi-shots of an object in a teacher-student learning manner for effectively boosting the single image based re-id. We validate the effectiveness of our approach on the popular vehicle re-id and person re-id datasets. In inference, the S-net alone significantly outperforms the baselines and achieves the state-of-the-art performance.
翻訳日:2023-01-11 06:31:28 公開日:2020-01-21
# ShapeVis: スケールでの高次元データ可視化

ShapeVis: High-dimensional Data Visualization at Scale ( http://arxiv.org/abs/2001.05166v2 )

ライセンス: Link先を確認
Nupur Kumari, Siddarth R., Akash Rupela, Piyush Gupta, Balaji Krishnamurthy(参考訳) トポロジカルデータ解析にインスパイアされたポイントクラウドデータのためのスケーラブルな可視化技術であるShapeVisを紹介する。 本手法は,データの幾何学的,位相的構造を圧縮グラフィカル表現でキャプチャする。 データ可視化技術であるmapperでは、データ上のフィルタ関数のリーブグラフを慎重に近似する多くの成功が報告されている。 しかし、フィルタ関数として標準次元還元アルゴリズムを使用する場合、Mapperは相当な計算コストに悩まされる。 これにより、高次元データへのスケールが困難になる。 提案手法はデータ多様体に沿ったランドマークと呼ばれる点のサブセットを発見して,その上に重み付けされた証人グラフを構築する。 このグラフは点雲の構造的特徴を捉え、その重みは有限マルコフ連鎖を用いて決定される。 標準コミュニティ検出アルゴリズムからの誘導マップを適用することで,このグラフをさらに圧縮する。 多様体の破断から借用した手法を用いて,データ形状を要約するために,そのモジュラリティに基づいた誘導グラフのエッジと再状態エッジを創り出す。 我々は,本手法が実データと合成データの構造的特徴をどのように捉えているかを実証的に示す。 さらに,t-sne,umap,bigvisなどのフィルタ関数を用いたマッパー法と比較し,データ可視化の質を維持しつつ,数百万のデータポイントに拡張できることを示す。

We present ShapeVis, a scalable visualization technique for point cloud data inspired from topological data analysis. Our method captures the underlying geometric and topological structure of the data in a compressed graphical representation. Much success has been reported by the data visualization technique Mapper, that discreetly approximates the Reeb graph of a filter function on the data. However, when using standard dimensionality reduction algorithms as the filter function, Mapper suffers from considerable computational cost. This makes it difficult to scale to high-dimensional data. Our proposed technique relies on finding a subset of points called landmarks along the data manifold to construct a weighted witness-graph over it. This graph captures the structural characteristics of the point cloud, and its weights are determined using a Finite Markov Chain. We further compress this graph by applying induced maps from standard community detection algorithms. Using techniques borrowed from manifold tearing, we prune and reinstate edges in the induced graph based on their modularity to summarize the shape of data. We empirically demonstrate how our technique captures the structural characteristics of real and synthetic data sets. Further, we compare our approach with Mapper using various filter functions like t-SNE, UMAP, LargeVis and show that our algorithm scales to millions of data points while preserving the quality of data visualization.
翻訳日:2023-01-11 06:04:36 公開日:2020-01-21
# オンライン行動検出のための時間モデルに関する総合的研究

A Comprehensive Study on Temporal Modeling for Online Action Detection ( http://arxiv.org/abs/2001.07501v1 )

ライセンス: Link先を確認
Wen Wang, Xiaojiang Peng, Yu Qiao, Jian Cheng(参考訳) オンライン行動検出(OAD)は実用的だが難しい課題であり、近年注目を集めている。 典型的なOADシステムは3つのモジュールから構成される:フレームレベルの特徴抽出器は、通常、事前訓練された深層畳み込みニューラルネットワーク(CNN)、時間モデリングモジュール、アクション分類器である。 それらのうち、時間モデリングモジュールは重要であり、歴史的特徴と現在の特徴から識別情報を集約している。 OADや他のトピックに対して多くの時間的モデリング手法が開発されているが、それらの効果はOADについて十分に調査されていない。 本稿では,oadの時間的モデリングに関する包括的研究として,時間的モデリング手法である<ie>時間的プーリング,時間的畳み込み,再帰的ニューラルネットワーク,時間的注意の4つのメタ型を含む。 それらの多くは初めてOADで探索され、様々なハイパーパラメータで広く評価されている。 さらに,本研究の包括的研究に基づいて,thums-14とtvシリーズにおいて,最新の最先端手法に匹敵するハイブリッド時間モデリング手法を提案する。

Online action detection (OAD) is a practical yet challenging task, which has attracted increasing attention in recent years. A typical OAD system mainly consists of three modules: a frame-level feature extractor which is usually based on pre-trained deep Convolutional Neural Networks (CNNs), a temporal modeling module, and an action classifier. Among them, the temporal modeling module is crucial which aggregates discriminative information from historical and current features. Though many temporal modeling methods have been developed for OAD and other topics, their effects are lack of investigation on OAD fairly. This paper aims to provide a comprehensive study on temporal modeling for OAD including four meta types of temporal modeling methods, \ie temporal pooling, temporal convolution, recurrent neural networks, and temporal attention, and uncover some good practices to produce a state-of-the-art OAD system. Many of them are explored in OAD for the first time, and extensively evaluated with various hyper parameters. Furthermore, based on our comprehensive study, we present several hybrid temporal modeling methods, which outperform the recent state-of-the-art methods with sizable margins on THUMOS-14 and TVSeries.
翻訳日:2023-01-08 00:39:33 公開日:2020-01-21
# PDS: スマートホームから高齢者のプライバシを推論する

PDS: Deduce Elder Privacy from Smart Homes ( http://arxiv.org/abs/2001.08099v1 )

ライセンス: Link先を確認
Ming-Chang Lee, Jia-Chun Lin, and Olaf Owe(参考訳) ここ数年のIoT技術の発展に伴い、低コストで人間の生活の質を向上させるために、さまざまな環境に幅広いスマートデバイスが展開されている。 世界中でますます深刻な高齢化問題のために、高齢者医療のためのスマートホームはIoTベースの重要なアプリケーションとなり、高齢者の健康を適切に監視し、ケアするだけでなく、より快適で独立して自宅に住めるようにもなっている。 しかし、高齢者のプライバシーは、非完全保護されたネットワーク通信のためにスマートホームから開示される可能性がある。 本稿では,高齢者のプライバシを著しく強調できることを示すため,スマートホームからセンサトラフィックを盗聴し,攻撃者の視点からの一連の推論に基づいて,高齢者の行動行動を特定し,スマートホーム内のセンサロケーションを推測することにより,プライバシ・ドダクション・スキーム(PDS)を開発する。 実際のスマートホームのセンサデータセットに基づく実験結果は、攻撃者が高齢者とその資産を危険にさらすために悪用される可能性のある、高齢者のプライバシーの低減と開示におけるPSDの有効性を示す。

With the development of IoT technologies in the past few years, a wide range of smart devices are deployed in a variety of environments aiming to improve the quality of human life in a cost efficient way. Due to the increasingly serious aging problem around the world, smart homes for elder healthcare have become an important IoT-based application, which not only enables elders' health to be properly monitored and taken care of, but also allows them to live more comfortably and independently in their houses. However, elders' privacy might be disclosed from smart homes due to non-fully protected network communication. To show that elders' privacy could be substantially exposed, in this paper we develop a Privacy Deduction Scheme (PDS for short) by eavesdropping sensor traffic from a smart home to identify elders' movement activities and speculating sensor locations in the smart home based on a series of deductions from the viewpoint of an attacker. The experimental results based on sensor datasets from real smart homes demonstrate the effectiveness of PDS in deducing and disclosing elders' privacy, which might be maliciously exploited by attackers to endanger elders and their properties.
翻訳日:2023-01-08 00:38:59 公開日:2020-01-21
# 連系・自動化環境における強化学習に基づく協調型高速道路作業ゾーンマージ制御

Cooperative Highway Work Zone Merge Control based on Reinforcement Learning in A Connected and Automated Environment ( http://arxiv.org/abs/2001.08581v1 )

ライセンス: Link先を確認
Tianzhu Ren, Yuanchang Xie, Liming Jiang(参考訳) 老朽化したインフラと、米国での高速道路の作業ゾーンの数の増加を考えると、作業ゾーンの安全性とキャパシティ向上に不可欠である作業ゾーンのマージ制御を調査することが重要である。 本稿では,人工知能による協調運転行動に基づく新しい高速道路作業ゾーン統合制御戦略を提案し,評価する。 提案手法は、全車両が完全に自動化され、接続され、協調していると仮定する。 オープンレーンに2つのメーターゾーンを挿入し、クローズドレーンで車両をマージするスペースを作る。 さらに、閉鎖車線の各車両は、周囲の交通状況を考慮して、オフポリシーソフトアクタ批評家(SAC)強化学習(RL)アルゴリズムを用いて、その長手位置を最適に調整してオープン車線内の安全な隙間を見つける方法を学習する。 学習結果は畳み込みニューラルネットワークでキャプチャされ、テストフェーズで個々の車両を制御するために使用される。 計測ゾーンを追加し、周囲の車両の位置、速度、加速度を考慮し、車両間の協調を暗黙的に考慮する。 このRLに基づくモデルは, 微視的交通シミュレータを用いて訓練し, 評価する。 その結果, この協調的RL型マージ制御は, 流動性と安全性の両面で, 後期マージや早期マージといった一般的な戦略を著しく上回ることがわかった。

Given the aging infrastructure and the anticipated growing number of highway work zones in the United States, it is important to investigate work zone merge control, which is critical for improving work zone safety and capacity. This paper proposes and evaluates a novel highway work zone merge control strategy based on cooperative driving behavior enabled by artificial intelligence. The proposed method assumes that all vehicles are fully automated, connected and cooperative. It inserts two metering zones in the open lane to make space for merging vehicles in the closed lane. In addition, each vehicle in the closed lane learns how to optimally adjust its longitudinal position to find a safe gap in the open lane using an off-policy soft actor critic (SAC) reinforcement learning (RL) algorithm, considering the traffic conditions in its surrounding. The learning results are captured in convolutional neural networks and used to control individual vehicles in the testing phase. By adding the metering zones and taking the locations, speeds, and accelerations of surrounding vehicles into account, cooperation among vehicles is implicitly considered. This RL-based model is trained and evaluated using a microscopic traffic simulator. The results show that this cooperative RL-based merge control significantly outperforms popular strategies such as late merge and early merge in terms of both mobility and safety measures.
翻訳日:2023-01-08 00:38:38 公開日:2020-01-21
# LTL仕様によるPMDPの確率有限状態制御

Stochastic Finite State Control of POMDPs with LTL Specifications ( http://arxiv.org/abs/2001.07679v1 )

ライセンス: Link先を確認
Mohamadreza Ahmadi, Rangoli Sharan, and Joel W. Burdick(参考訳) 部分的に観測可能なマルコフ決定プロセス(POMDP)は、不確実性と不完全なセンシングの下での自律的な意思決定のためのモデリングフレームワークを提供する。 しかし、POMDPの最適制御は難易度が高い。 本稿では、線形時間論理(LTL)式で高レベル仕様の集合を満たす確率を最大化するように、POMDPの準最適確率有限状態制御器(sFSC)を合成する定量的問題を考察する。 まず、後者の問題を最適化にキャストし、ポアソン方程式とマコーミック包絡(mccormick envelopes)に基づく緩和を用いる。 そこで,本研究では,sfscサイズとany timeアルゴリズムの制御により,逐次反復によってコントローラの性能が向上するが,時間やメモリの考慮によりユーザによって停止される確率的有界ポリシー反復アルゴリズムを提案する。 本稿では,ロボットナビゲーションケーススタディによる提案手法について述べる。

Partially observable Markov decision processes (POMDPs) provide a modeling framework for autonomous decision making under uncertainty and imperfect sensing, e.g. robot manipulation and self-driving cars. However, optimal control of POMDPs is notoriously intractable. This paper considers the quantitative problem of synthesizing sub-optimal stochastic finite state controllers (sFSCs) for POMDPs such that the probability of satisfying a set of high-level specifications in terms of linear temporal logic (LTL) formulae is maximized. We begin by casting the latter problem into an optimization and use relaxations based on the Poisson equation and McCormick envelopes. Then, we propose an stochastic bounded policy iteration algorithm, leading to a controlled growth in sFSC size and an any time algorithm, where the performance of the controller improves with successive iterations, but can be stopped by the user based on time or memory considerations. We illustrate the proposed method by a robot navigation case study.
翻訳日:2023-01-08 00:37:44 公開日:2020-01-21
# 呼吸異常と疾患を予測するためのロバストなディープラーニングフレームワーク

Robust Deep Learning Framework For Predicting Respiratory Anomalies and Diseases ( http://arxiv.org/abs/2002.03894v1 )

ライセンス: Link先を確認
Lam Pham, Ian McLoughlin, Huy Phan, Minh Tran, Truc Nguyen, Ramaswamy Palaniappan(参考訳) 本稿では,呼吸音の記録から呼吸器疾患を検出するための,堅牢な深層学習フレームワークを提案する。 完全な検出プロセスは、まず、記録をスペクトル情報と時間情報の両方を伝達するスペクトログラムに変換するフロントエンドの特徴抽出を含む。 次に、バックエンドのディープラーニングモデルは、特徴を呼吸器疾患または異常のクラスに分類する。 呼吸音のicbhiベンチマークデータセットを用いて実施した実験は,音の分類における枠組みの能力を評価する。 本論文では2つの主な貢献を行う。 まず,呼吸サイクル長,時間分解能,ネットワークアーキテクチャなどの要因が最終予測精度にどのように影響するかを広範囲に分析する。 第2に,呼吸器疾患検出のための新しい深層学習基盤フレームワークを提案し,技術手法の状況と比較して極めて良好な性能を示した。

This paper presents a robust deep learning framework developed to detect respiratory diseases from recordings of respiratory sounds. The complete detection process firstly involves front end feature extraction where recordings are transformed into spectrograms that convey both spectral and temporal information. Then a back-end deep learning model classifies the features into classes of respiratory disease or anomaly. Experiments, conducted over the ICBHI benchmark dataset of respiratory sounds, evaluate the ability of the framework to classify sounds. Two main contributions are made in this paper. Firstly, we provide an extensive analysis of how factors such as respiratory cycle length, time resolution, and network architecture, affect final prediction accuracy. Secondly, a novel deep learning based framework is proposed for detection of respiratory diseases and shown to perform extremely well compared to state of the art methods.
翻訳日:2023-01-08 00:37:27 公開日:2020-01-21
# 自動ドメイン選択による高次元システムのポリシー探索のためのベイズ最適化

Bayesian Optimization for Policy Search in High-Dimensional Systems via Automatic Domain Selection ( http://arxiv.org/abs/2001.07394v1 )

ライセンス: Link先を確認
Lukas P. Fr\"ohlich, Edgar D. Klenske, Christian G. Daniel, Melanie N. Zeilinger(参考訳) ベイズ最適化 (bayesian optimization, bo) は、ロボティクス、システム設計、パラメータ最適化など、幅広いアプリケーションを用いて、費用対評価ブラックボックス関数を最適化する効果的な方法である。 しかし、大きな入力次元 (>10) を持つ問題へのboのスケーリングは、まだ未解決の課題である。 本稿では,boをスケールする最適制御から高次元制御タスクへの結果を活用し,最適化領域を手作業で選択する必要性を低減することを提案する。 この論文の貢献は2つある。 1) 最適化領域の最も関連する領域に焦点をあてることで,bo問題を単純化するモデルベースコントローラと組み合わせることで,学習したダイナミクスモデルをどのように利用できるかを示す。 2)(1)最適化問題の有効次元を減少させるパラメータ空間への埋め込みを探索する手法を提案する。 提案手法の有効性を評価するため,実機上での実験的な評価と,クワッドコプターの48次元ポリシを含むシミュレーションタスクを提案する。

Bayesian Optimization (BO) is an effective method for optimizing expensive-to-evaluate black-box functions with a wide range of applications for example in robotics, system design and parameter optimization. However, scaling BO to problems with large input dimensions (>10) remains an open challenge. In this paper, we propose to leverage results from optimal control to scale BO to higher dimensional control tasks and to reduce the need for manually selecting the optimization domain. The contributions of this paper are twofold: 1) We show how we can make use of a learned dynamics model in combination with a model-based controller to simplify the BO problem by focusing onto the most relevant regions of the optimization domain. 2) Based on (1) we present a method to find an embedding in parameter space that reduces the effective dimensionality of the optimization problem. To evaluate the effectiveness of the proposed approach, we present an experimental evaluation on real hardware, as well as simulated tasks including a 48-dimensional policy for a quadcopter.
翻訳日:2023-01-08 00:37:14 公開日:2020-01-21
# 強化学習法を用いたNG-EPONのレイテンシ管理のためのインテリジェント帯域割り当て

Intelligent Bandwidth Allocation for Latency Management in NG-EPON using Reinforcement Learning Methods ( http://arxiv.org/abs/2001.07698v1 )

ライセンス: Link先を確認
Qi Zhou, Jingjie Zhu, Junwen Zhang, Zhensheng Jia, Bernardo Huberman and Gee-Kung Chang(参考訳) 拡張学習を用いたNG-EPONにおける新しい帯域割り当て方式を提案し,遅延管理について実証した。 固定および動的トラフィック負荷シナリオの下で提案手法の有効性を検証することで,<1ms平均遅延を実現する。 RLエージェントは、レイテンシを管理するための効率的なインテリジェントなメカニズムを示し、次世代アクセスネットワークに対して有望なIAAソリューションを提供する。

A novel intelligent bandwidth allocation scheme in NG-EPON using reinforcement learning is proposed and demonstrated for latency management. We verify the capability of the proposed scheme under both fixed and dynamic traffic loads scenarios to achieve <1ms average latency. The RL agent demonstrates an efficient intelligent mechanism to manage the latency, which provides a promising IBA solution for the next-generation access network.
翻訳日:2023-01-08 00:36:43 公開日:2020-01-21
# 物体の杭から対象物を見つけたり拾ったりするための可視・咬合領域のインスタンスセグメンテーション

Instance Segmentation of Visible and Occluded Regions for Finding and Picking Target from a Pile of Objects ( http://arxiv.org/abs/2001.07475v1 )

ライセンス: Link先を確認
Kentaro Wada, Shingo Kitagawa, Kei Okada, Masayuki Inaba(参考訳) 本稿では,障害物を適切な順序で除去することにより,対象物を発見・把握できる物体の山から目標を抽出するロボットシステムを提案する。 基本的な考え方は、可視マスクと隠蔽マスクの両方でインスタンスを分割することであり、これを 'instance occlusion segmentation' と呼ぶ。 これを実現するために、既存のインスタンスセグメンテーションモデルを新しい 'relook' アーキテクチャで拡張し、モデルがインスタンス間の関係を明示的に学習する。 また、画像合成により、人間のアノテーションを使わずに新しいオブジェクトを処理できるシステムを構築する。 実験結果から,従来のモデルと比較した場合のリルックアーキテクチャの有効性と,人間の注釈付きデータセットと比較した場合の画像合成の有効性が示された。 また, 本システムは, 実ロボットを用いて, 乱雑な環境下で目標を選定する能力を示す。

We present a robotic system for picking a target from a pile of objects that is capable of finding and grasping the target object by removing obstacles in the appropriate order. The fundamental idea is to segment instances with both visible and occluded masks, which we call `instance occlusion segmentation'. To achieve this, we extend an existing instance segmentation model with a novel `relook' architecture, in which the model explicitly learns the inter-instance relationship. Also, by using image synthesis, we make the system capable of handling new objects without human annotations. The experimental results show the effectiveness of the relook architecture when compared with a conventional model and of the image synthesis when compared to a human-annotated dataset. We also demonstrate the capability of our system to achieve picking a target in a cluttered environment with a real robot.
翻訳日:2023-01-08 00:30:06 公開日:2020-01-21
# クラッタにおける重閉塞を有するロボットピック・アンド・プレイスの事例と意味的セグメンテーションの連成学習

Joint Learning of Instance and Semantic Segmentation for Robotic Pick-and-Place with Heavy Occlusions in Clutter ( http://arxiv.org/abs/2001.07481v1 )

ライセンス: Link先を確認
Kentaro Wada, Kei Okada, Masayuki Inaba(参考訳) 可視・隠蔽領域マスクのインスタンスとセマンティックセグメンテーションを共同で学習する。 インスタンスのオクルージョンセグメンテーションと特徴抽出器を共有することにより,インスタンスセグメンテーションモデルに意味的オクルージョンセグメンテーションを導入する。 この共同学習は、前回の学習インスタンスのセグメンテーションのみ(インスタンスのみ)に欠けている異なるセグメンテーションタスクに対して、マスク予測のインスタンスレベルとイメージレベルの推論を融合させる。 実験では,テストデータセットにおけるインスタンスのみの学習を比較する共同学習について評価した。 また,2種類のロボットピック・アンド・プレイスタスク(ランダム・ターゲットピック)にジョイントラーニングモデルを適用し,実世界のロボットタスクを実現する上での有効性を評価した。

We present joint learning of instance and semantic segmentation for visible and occluded region masks. Sharing the feature extractor with instance occlusion segmentation, we introduce semantic occlusion segmentation into the instance segmentation model. This joint learning fuses the instance- and image-level reasoning of the mask prediction on the different segmentation tasks, which was missing in the previous work of learning instance segmentation only (instance-only). In the experiments, we evaluated the proposed joint learning comparing the instance-only learning on the test dataset. We also applied the joint learning model to 2 different types of robotic pick-and-place tasks (random and target picking) and evaluated its effectiveness to achieve real-world robotic tasks.
翻訳日:2023-01-08 00:29:50 公開日:2020-01-21
# AutoMATES: テキスト、方程式、ソフトウェアからの自動モデルアセンブリ

AutoMATES: Automated Model Assembly from Text, Equations, and Software ( http://arxiv.org/abs/2001.07295v1 )

ライセンス: Link先を確認
Adarsh Pyarelal and Marco A. Valenzuela-Escarcega and Rebecca Sharp and Paul D. Hein, Jon Stephens, Pratik Bhandari, HeuiChan Lim, Saumya Debray, Clayton T. Morrison(参考訳) 複雑なシステムのモデルは、異なる方法で表現できる - 科学論文では、自然言語のテキストと方程式を使って表現される。 しかし、実際の使用にはソフトウェアとしても実装する必要があるため、コードをモデルを表す第3の形式にする必要がある。 我々はAutoMATESプロジェクトを紹介し、科学的なコードや出版物からモデルの意味的にリッチな統一表現を構築し、異なるドメインからの計算モデルの統合を容易にし、複数のドメインと抽象化レベルにまたがる大規模で複雑なシステムをモデル化できるようにする。

Models of complicated systems can be represented in different ways - in scientific papers, they are represented using natural language text as well as equations. But to be of real use, they must also be implemented as software, thus making code a third form of representing models. We introduce the AutoMATES project, which aims to build semantically-rich unified representations of models from scientific code and publications to facilitate the integration of computational models from different domains and allow for modeling large, complicated systems that span multiple domains and levels of abstraction.
翻訳日:2023-01-08 00:28:52 公開日:2020-01-21
# 階層多項式モデルのためのラッソ

Lasso for hierarchical polynomial models ( http://arxiv.org/abs/2001.07778v1 )

ライセンス: Link先を確認
Hugo Maruri-Aguilar and Simon Lunagomez(参考訳) 多項式回帰モデルにおいて、多項式階層に暗黙的な可除条件は、モデルパラメータの制約の自然な構成に道を譲る。 この原理は、強弱階層と弱階層のバージョンを導出し、文学における既存の作業を拡張するために使われ、現時点では次数2のモデルにのみ関係している。 標準二次プログラミング手法を用いてlassoのパラメータを推定する方法を議論し、本提案をシミュレーションデータと文献の例の両方に適用する。 提案手法は,検証誤差の低さとモデルサイズの観点から,既存の手法と良好に比較できる。

In a polynomial regression model, the divisibility conditions implicit in polynomial hierarchy give way to a natural construction of constraints for the model parameters. We use this principle to derive versions of strong and weak hierarchy and to extend existing work in the literature, which at the moment is only concerned with models of degree two. We discuss how to estimate parameters in lasso using standard quadratic programming techniques and apply our proposal to both simulated data and examples from the literature. The proposed methodology compares favorably with existing techniques in terms of low validation error and model size.
翻訳日:2023-01-08 00:28:21 公開日:2020-01-21
# 粒子識別速度アップのための変分ドロップアウトスパーシフィケーション

Variational Dropout Sparsification for Particle Identification speed-up ( http://arxiv.org/abs/2001.07493v1 )

ライセンス: Link先を確認
Artem Ryzhikov, Denis Derkach, Mikhail Hushchyn(参考訳) 正確な粒子識別(PID)はLHCb実験の最も重要な側面の一つである。 ニューラルネットワーク(NN)のような現代の機械学習技術がこの問題に効果的に適用され、LHCbソフトウェアに統合される。 本研究では,LHCアップグレード条件における高速PIDを実現するニューラルネットワーク高速化手法の新たな応用について論じる。 その結果,浅層ネットワークモデルと比較して,最大16倍の予測速度向上(フェードフォワードパス)が得られた。

Accurate particle identification (PID) is one of the most important aspects of the LHCb experiment. Modern machine learning techniques such as neural networks (NNs) are efficiently applied to this problem and are integrated into the LHCb software. In this research, we discuss novel applications of neural network speed-up techniques to achieve faster PID in LHC upgrade conditions. We show that the best results are obtained using variational dropout sparsification, which provides a prediction (feedforward pass) speed increase of up to a factor of sixteen even when compared to a model with shallow networks.
翻訳日:2023-01-08 00:27:59 公開日:2020-01-21
# ライブRGB-Dストリームの強化と統合のための幾何学的プロキシ

Geometric Proxies for Live RGB-D Stream Enhancement and Consolidation ( http://arxiv.org/abs/2001.07577v1 )

ライセンス: Link先を確認
Adrien Kaiser, Jos\'e Alonso Ybanez Zepeda, Tamy Boubekeur(参考訳) RGB-Dデータの統合リアルタイム処理のための幾何学的スーパー構造を提案する。 現代のRGB-Dセンサーは、モデリングからロボティクス、拡張現実に至るまで、屋内3Dキャプチャーに広く利用されている。 それでも、それらの使用は低解像度で制限されており、しばしばノイズやデータ不足、時間的矛盾によってフレームが破損する。 提案手法は,RGB-Dデータから得られる検出された幾何学的プロキシ上でパラメータ化された1組のコンパクト局所統計集合の生成と更新を行う。 我々のプロキシはいくつかの処理プリミティブを提供し、オンザフライでのRGB-Dストリームの品質を向上させるか、さらなる操作を軽量化する。 実験結果から,我々の軽量解析フレームワークは組込み型実行と中程度のメモリと計算能力によく対応していることが確認された。 プロキシでRGB-Dデータを処理することで、ノイズや時間的フレッカリングの除去、穴埋め、再サンプリングが可能になります。 観察したシーンの代わりに、我々のプロキシは圧縮やシーンの再構成にも適用できます。 近年のオープンなRGB-Dデータセットにおいて,本フレームワークを用いた実験を行った。

We propose a geometric superstructure for unified real-time processing of RGB-D data. Modern RGB-D sensors are widely used for indoor 3D capture, with applications ranging from modeling to robotics, through augmented reality. Nevertheless, their use is limited by their low resolution, with frames often corrupted with noise, missing data and temporal inconsistencies. Our approach consists in generating and updating through time a single set of compact local statistics parameterized over detected geometric proxies, which are fed from raw RGB-D data. Our proxies provide several processing primitives, which improve the quality of the RGB-D stream on the fly or lighten further operations. Experimental results confirm that our lightweight analysis framework copes well with embedded execution as well as moderate memory and computational capabilities compared to state-of-the-art methods. Processing RGB-D data with our proxies allows noise and temporal flickering removal, hole filling and resampling. As a substitute of the observed scene, our proxies can additionally be applied to compression and scene reconstruction. We present experiments performed with our framework in indoor scenes of different natures within a recent open RGB-D dataset.
翻訳日:2023-01-08 00:21:06 公開日:2020-01-21
# 特許価値評価指標システムの最適化のためのラッパー特徴選択アルゴリズム

Wrapper Feature Selection Algorithm for the Optimization of an Indicator System of Patent Value Assessment ( http://arxiv.org/abs/2001.08371v1 )

ライセンス: Link先を確認
Yihui Qiu, Chiyu Zhang(参考訳) 効果的な特許価値評価は、特許トランセクションの決定支援を提供し、特許技術の実用化を促進する。 本研究では,特許価値評価に関するこれまでの研究の限界を分析し,分類器の精度に基づくラッパーモード特徴選択アルゴリズムを開発した。 複数のUCI標準データセットの検証実験により、アルゴリズムは特徴セットのサイズを効果的に削減し、分類器の予測精度を大幅に向上させた。 アルゴリズムを用いて特許価値評価の指標システムを確立すると,システムのサイズが小さくなり,分類器の一般化性能が向上した。 逐次前方選択を適用して、指標セットのサイズをさらに小さくし、特許価値評価の最適な指標システムを生成する。

Effective patent value assessment provides decision support for patent transection and promotes the practical application of patent technology. The limitations of previous research on patent value assessment were analyzed in this work, and a wrapper-mode feature selection algorithm that is based on classifier prediction accuracy was developed. Verification experiments on multiple UCI standard datasets indicated that the algorithm effectively reduced the size of the feature set and significantly enhanced the prediction accuracy of the classifier. When the algorithm was utilized to establish an indicator system of patent value assessment, the size of the system was reduced, and the generalization performance of the classifier was enhanced. Sequential forward selection was applied to further reduce the size of the indicator set and generate an optimal indicator system of patent value assessment.
翻訳日:2023-01-08 00:19:39 公開日:2020-01-21
# ブール関数のサンプリングと学習

Sampling and Learning for Boolean Function ( http://arxiv.org/abs/2001.07317v1 )

ライセンス: Link先を確認
Chuyu Xiong(参考訳) 本稿では,新しいツールを導入することで,ユニバーサル学習マシンの研究を継続する。 まず,ブール関数とブール回路について考察し,極端に適合するツールセットと適切なサンプリングセットのセットを確立する。 適切なサンプリングセットとブール回路の複雑さの基本的な関係を検証した。 この一連のツールを使って、より効果的な学習戦略を導入します。 このような学習戦略と学習ダイナミックスにより、普遍的な学習が達成でき、はるかに少ないデータを必要とすることを示す。

In this article, we continue our study on universal learning machine by introducing new tools. We first discuss boolean function and boolean circuit, and we establish one set of tools, namely, fitting extremum and proper sampling set. We proved the fundamental relationship between proper sampling set and complexity of boolean circuit. Armed with this set of tools, we then introduce much more effective learning strategies. We show that with such learning strategies and learning dynamics, universal learning can be achieved, and requires much less data.
翻訳日:2023-01-08 00:19:27 公開日:2020-01-21
# 航空学における通信効率の高い分散障害予測のための連合学習とアクティブ学習の併用

Combining Federated and Active Learning for Communication-efficient Distributed Failure Prediction in Aeronautics ( http://arxiv.org/abs/2001.07504v1 )

ライセンス: Link先を確認
Nicolas Aussel (INF, ACMES-SAMOVAR, IP Paris), Sophie Chabridon (IP Paris, INF, ACMES-SAMOVAR), Yohan Petetin (TIPIC-SAMOVAR, CITI, IP Paris)(参考訳) 機械学習は近年,産業システムの障害予測を実現する手段として有用であることが証明されている。 しかし、学習アルゴリズムの実行に必要な高い計算資源は、その広範な応用の障害となっている。 分散学習のサブフィールドは、リモートリソースの使用を可能にすることでこの問題に対する解決策を提供するが、必ずしも受け入れられないアプリケーションに通信コストを導入するコストがかかる。 本稿では,集中型アーキテクチャによる優れた学習モデル性能を実現するために,計算・通信資源の利用を最適化する分散学習手法を提案する。 そこで本研究では,アクティブラーニングとフェデレーションラーニングの学習パラダイムに頼り,クライアントと中央サーバの両方のモデル精度の保証を提供するコミュニケーション効率の高い手法を提案する。 我々は,この手法を公開ベンチマークで評価し,その精度は,付加的な制約にもかかわらず,非分散学習の最先端性能レベルに非常に近いことを示す。

Machine Learning has proven useful in the recent years as a way to achieve failure prediction for industrial systems. However, the high computational resources necessary to run learning algorithms are an obstacle to its widespread application. The sub-field of Distributed Learning offers a solution to this problem by enabling the use of remote resources but at the expense of introducing communication costs in the application that are not always acceptable. In this paper, we propose a distributed learning approach able to optimize the use of computational and communication resources to achieve excellent learning model performances through a centralized architecture. To achieve this, we present a new centralized distributed learning algorithm that relies on the learning paradigms of Active Learning and Federated Learning to offer a communication-efficient method that offers guarantees of model precision on both the clients and the central server. We evaluate this method on a public benchmark and show that its performances in terms of precision are very close to state-of-the-art performance level of non-distributed learning despite additional constraints.
翻訳日:2023-01-08 00:19:20 公開日:2020-01-21
# 高次元カオス系予測のための深部LSTMに基づくハイブリッドモデル

A hybrid model based on deep LSTM for predicting high-dimensional chaotic systems ( http://arxiv.org/abs/2002.00799v1 )

ライセンス: Link先を確認
Youming Lei, Jian Hu and Jianpeng Ding(参考訳) 本研究では,高次元カオスシステムを予測するために,LSTMモデルと動的システムの不正確な実験モデルを組み合わせたハイブリッド手法を提案する。 深層階層は複数の繰り返しニューラルネットワーク層を重畳することでLSTMにエンコードされ、ハイブリッドモデルはAdam最適化アルゴリズムで訓練される。 マッキーガラス系とクラモト・シヴァシンスキー系の統計結果は,それぞれsinge-layer lstm,多層lstm,対応するハイブリッド法を用いて,根平均二乗誤差 (rmse) と異常相関係数 (acc) の基準で求めた。 数値計算により,カオスアトラクタを再構築する際の多層LSTMモデルの高速分散を効果的に回避できることを示すとともに,勾配降下法と経験的モデルに基づく深層学習の可能性を示す。

We propose a hybrid method combining the deep long short-term memory (LSTM) model with the inexact empirical model of dynamical systems to predict high-dimensional chaotic systems. The deep hierarchy is encoded into the LSTM by superimposing multiple recurrent neural network layers and the hybrid model is trained with the Adam optimization algorithm. The statistical results of the Mackey-Glass system and the Kuramoto-Sivashinsky system are obtained under the criteria of root mean square error (RMSE) and anomaly correlation coefficient (ACC) using the singe-layer LSTM, the multi-layer LSTM, and the corresponding hybrid method, respectively. The numerical results show that the proposed method can effectively avoid the rapid divergence of the multi-layer LSTM model when reconstructing chaotic attractors, and demonstrate the feasibility of the combination of deep learning based on the gradient descent method and the empirical model.
翻訳日:2023-01-08 00:13:01 公開日:2020-01-21
# マルチエージェントオントロジーに基づく臨床判断支援システム

A multi-agent ontologies-based clinical decision support system ( http://arxiv.org/abs/2001.07374v1 )

ライセンス: Link先を確認
Ying Shen (UPN), Jacquet-Andrieu Armelle, Jo\"el Colloc (IDEES)(参考訳) 臨床意思決定支援システムは、確率的手法に基づく量的モデルや、専門家のヒューリスティックスや推論に基づく質的モデルで表される様々な情報源からの知識とデータを組み合わせる。 同時に、ケースベースの推論(CBR)は、同様の問題を解決する経験を記憶し返します。 不均一な臨床知識基盤(知識オブジェクト、意味距離、評価関数、論理ルール、データベース...)の協調は、医療オントロジーに基づいている。 マルチエージェント意思決定支援システム(MADSS)は、異なる知識分野(生理学、薬理学、臨床例など)に特化したエージェントの統合と協調を可能にする。 各専門エージェントは、当該ドメインの用語間の意味的関係を表現するオントロジ的基礎に関連する技術の状態に応じて維持されるべき行為を定義する知識ベースを運用する。 本研究のアプローチは,臨床段階およびオントロジーにおける知識モデルに適応したエージェントの専門化に基づく。 このモジュラーアプローチは多くの領域におけるMADSSの実現に適している。

Clinical decision support systems combine knowledge and data from a variety of sources, represented by quantitative models based on stochastic methods, or qualitative based rather on expert heuristics and deductive reasoning. At the same time, case-based reasoning (CBR) memorizes and returns the experience of solving similar problems. The cooperation of heterogeneous clinical knowledge bases (knowledge objects, semantic distances, evaluation functions, logical rules, databases...) is based on medical ontologies. A multi-agent decision support system (MADSS) enables the integration and cooperation of agents specialized in different fields of knowledge (semiology, pharmacology, clinical cases, etc.). Each specialist agent operates a knowledge base defining the conduct to be maintained in conformity with the state of the art associated with an ontological basis that expresses the semantic relationships between the terms of the domain in question. Our approach is based on the specialization of agents adapted to the knowledge models used during the clinical steps and ontologies. This modular approach is suitable for the realization of MADSS in many areas.
翻訳日:2023-01-08 00:12:17 公開日:2020-01-21
# ビジネスプロセスにおけるAI信頼:プロセス対応の説明の必要性

AI Trust in business processes: The need for process-aware explanations ( http://arxiv.org/abs/2001.07537v1 )

ライセンス: Link先を確認
Steve T.K. Jan, Vatche Ishakian, Vinod Muthusamy(参考訳) ビジネスプロセスは、ローン申請の処理、請求書の管理、保険請求など、多数の企業業務を支えている。 ビジネスプロセス管理(bpm)の文献は、プロセストレースのクラスタについての洞察を得るための教師なし学習、部分的なプロセストレースの結果、持続時間、パスを予測するための分類モデル、ドキュメントからビジネスプロセスを抽出すること、ビジネスプロセスの最適化や意思決定ポイントのナビゲートを推奨するモデルなど、機械学習ソリューションに富んでいます。 最近では、NLPドメインを含むディープラーニングモデルがプロセス予測に応用されている。 残念なことに、これらのイノベーションのほとんどが、企業企業によって適用され、採用されています。 私たちは、BPMにAIモデルが採用されていない大きな理由は、ビジネスユーザーがリスクに逆らってAIモデルを暗黙的に信頼していないことであると断言しています。 残念ながら、プロセスコンテキストでビジネスユーザーにモデル予測を説明することにはほとんど注意が払われていない。 私たちはbpmコミュニティにai解釈可能性の文献を構築するよう挑戦し、ai信頼コミュニティに理解を求めます。

Business processes underpin a large number of enterprise operations including processing loan applications, managing invoices, and insurance claims. There is a large opportunity for infusing AI to reduce cost or provide better customer experience, and the business process management (BPM) literature is rich in machine learning solutions including unsupervised learning to gain insights on clusters of process traces, classification models to predict the outcomes, duration, or paths of partial process traces, extracting business process from documents, and models to recommend how to optimize a business process or navigate decision points. More recently, deep learning models including those from the NLP domain have been applied to process predictions. Unfortunately, very little of these innovations have been applied and adopted by enterprise companies. We assert that a large reason for the lack of adoption of AI models in BPM is that business users are risk-averse and do not implicitly trust AI models. There has, unfortunately, been little attention paid to explaining model predictions to business users with process context. We challenge the BPM community to build on the AI interpretability literature, and the AI Trust community to understand
翻訳日:2023-01-08 00:12:01 公開日:2020-01-21
# カーネル行列の学習による顔認証

Face Verification via learning the kernel matrix ( http://arxiv.org/abs/2001.07323v1 )

ライセンス: Link先を確認
Ning Yuan, Xiao-Jun Wu and He-Feng Yin(参考訳) 非線形パターン認識問題を解くためにカーネル関数を導入する。 カーネル法の利点は、しばしばカーネル関数の適切な選択に依存する。 有望なアプローチは、データからカーネルを自動的に学習することです。 過去数年間、カーネルを学習するために提案されたいくつかのメソッドには、予め定義されたカーネル関数のパラメータを学習するなど、いくつかの制限がある。 本稿では,カーネルマトリクスの学習による非線形顔検証を提案する。 新しいアルゴリズムでは計算問題である特異なクラスを反転させるのを避けるために新しい基準が用いられている。 ローザンヌプロトコルを用いて, 顔データベースxm2vtsを用いて得られた実験結果から, 新しい手法の検証性能は一次法クライアント特定カーネル判別解析 (cskda) よりも優れていることがわかった。 CSKDAは多数の実験を通して適切なカーネル関数を選択する必要があり、新しい手法はデータからカーネルを自動的に学習し、多くの時間を節約し、堅牢な性能を得ることができた。

The kernel function is introduced to solve the nonlinear pattern recognition problem. The advantage of a kernel method often depends critically on a proper choice of the kernel function. A promising approach is to learn the kernel from data automatically. Over the past few years, some methods which have been proposed to learn the kernel have some limitations: learning the parameters of some prespecified kernel function and so on. In this paper, the nonlinear face verification via learning the kernel matrix is proposed. A new criterion is used in the new algorithm to avoid inverting the possibly singular within-class which is a computational problem. The experimental results obtained on the facial database XM2VTS using the Lausanne protocol show that the verification performance of the new method is superior to that of the primary method Client Specific Kernel Discriminant Analysis (CSKDA). The method CSKDA needs to choose a proper kernel function through many experiments, while the new method could learn the kernel from data automatically which could save a lot of time and have the robust performance.
翻訳日:2023-01-08 00:11:09 公開日:2020-01-21
# VMRFANet:人物再識別のための視野特異的多受容フィールド注意ネットワーク

VMRFANet:View-Specific Multi-Receptive Field Attention Network for Person Re-identification ( http://arxiv.org/abs/2001.07354v1 )

ライセンス: Link先を確認
Honglong Cai, Yuedong Fang, Zhiguan Wang, Tingchun Yeh, Jinxing Cheng(参考訳) 人物再識別(re-ID)は、異なるカメラで同じ人物を回収することを目的としている。 実際には、背景の乱雑さ、身体のポーズの変化、視界の状況の変化、不正確な境界ボックスの検出など、依然として困難な作業である。 本稿では,様々な大きさのフィルタを用いて,情報画素に注目するネットワークを支援するMRFA(Multi-Receptive Field attention)モジュールを提案する。 また,ビュー条件の変化に対処するために,注目モジュールを誘導するビュー固有機構を提案する。 さらに,提案するネットワークのロバスト性をさらに向上する,ガウス型水平ランダムトリミング/パディング手法を提案する。 総合的な実験は各コンポーネントの有効性を示す。 本手法は,マーケット1501におけるランク-1/mAPの95.5% / 88.1%,デュークMTMC-reIDでは88.9% / 80.0%,CUHK03ラベル付きデータセットでは81.1% / 78.8%,CUHK03検出データセットでは78.9% / 75.3%,最先端の手法では78.9% / 75.3%を達成した。

Person re-identification (re-ID) aims to retrieve the same person across different cameras. In practice, it still remains a challenging task due to background clutter, variations on body poses and view conditions, inaccurate bounding box detection, etc. To tackle these issues, in this paper, we propose a novel multi-receptive field attention (MRFA) module that utilizes filters of various sizes to help network focusing on informative pixels. Besides, we present a view-specific mechanism that guides attention module to handle the variation of view conditions. Moreover, we introduce a Gaussian horizontal random cropping/padding method which further improves the robustness of our proposed network. Comprehensive experiments demonstrate the effectiveness of each component. Our method achieves 95.5% / 88.1% in rank-1 / mAP on Market-1501, 88.9% / 80.0% on DukeMTMC-reID, 81.1% / 78.8% on CUHK03 labeled dataset and 78.9% / 75.3% on CUHK03 detected dataset, outperforming current state-of-the-art methods.
翻訳日:2023-01-08 00:10:51 公開日:2020-01-21
# 医用画像におけるランドマーク検出とマッチングのためのエンドツーエンドディープラーニングアプローチ

An End-to-end Deep Learning Approach for Landmark Detection and Matching in Medical Images ( http://arxiv.org/abs/2001.07434v1 )

ライセンス: Link先を確認
Monika Grewal, Timo M. Deist, Jan Wiersma, Peter A. N. Bosman, Tanja Alderliesten(参考訳) 医療画像における解剖学的ランドマーク対応は、2つの画像のアライメントのための追加のガイダンス情報を提供することができる。 しかし、手動のランドマークアノテーションは労働集約的です。 そこで本研究では,2次元画像のペアにおけるランドマーク対応を自動的に検出するエンド・ツー・エンドのディープラーニング手法を提案する。 我々のアプローチは、画像中の有意な位置をランドマークとして識別し、2つの異なる画像からランドマークペアのマッチング確率を予測するために訓練されたシームズニューラルネットワークで構成されている。 腹部CT168例の2次元横切片を用いてアプローチを訓練した。 実験では,22,206対の2次元スライスに対して,強度,アフィン,弾性変換のレベルが変化した。 提案手法では,画像ペアあたりの平均639,466,370のランドマーク一致が,それぞれ強度,アフィン,弾性変換であり,空間マッチング誤差は1mm以上である。 さらに、ランドマークペアの99%以上は、それぞれ強度、アフィン、弾性変換を伴う画像ペアに対して、2mm、4mm、8mmの空間マッチング誤差内にある。 また, 3症例の追跡ctスキャンから選択した一対の横スライスに対して, 臨床現場で開発したアプローチの有用性について検討した。 結果の視覚的検査では,骨の解剖学的領域と軟部組織の両方に著明な強度勾配を欠いたランドマークが一致した。

Anatomical landmark correspondences in medical images can provide additional guidance information for the alignment of two images, which, in turn, is crucial for many medical applications. However, manual landmark annotation is labor-intensive. Therefore, we propose an end-to-end deep learning approach to automatically detect landmark correspondences in pairs of two-dimensional (2D) images. Our approach consists of a Siamese neural network, which is trained to identify salient locations in images as landmarks and predict matching probabilities for landmark pairs from two different images. We trained our approach on 2D transverse slices from 168 lower abdominal Computed Tomography (CT) scans. We tested the approach on 22,206 pairs of 2D slices with varying levels of intensity, affine, and elastic transformations. The proposed approach finds an average of 639, 466, and 370 landmark matches per image pair for intensity, affine, and elastic transformations, respectively, with spatial matching errors of at most 1 mm. Further, more than 99% of the landmark pairs are within a spatial matching error of 2 mm, 4 mm, and 8 mm for image pairs with intensity, affine, and elastic transformations, respectively. To investigate the utility of our developed approach in a clinical setting, we also tested our approach on pairs of transverse slices selected from follow-up CT scans of three patients. Visual inspection of the results revealed landmark matches in both bony anatomical regions as well as in soft tissues lacking prominent intensity gradients.
翻訳日:2023-01-08 00:10:19 公開日:2020-01-21
# Face2Faceの顔再現検出技術

Detecting Face2Face Facial Reenactment in Videos ( http://arxiv.org/abs/2001.07444v1 )

ライセンス: Link先を確認
Prabhat Kumar, Mayank Vatsa and Richa Singh(参考訳) 何十億もの画像やビデオが毎日インターネット上で共有され、アップロードされているように、ビジュアルコンテンツが主要な情報ソースになっている。 これにより、世界中の視聴者にとってより情報的かつ目を引くために、画像やビデオの変更が増加している。 これらの変更のいくつかはコピーモーブのようにシンプルで容易に検出できるが、再現ベースのディープフェイクのような洗練された変更は検出が難しい。 reenactmentの変更により、ソースはターゲットの式を変更し、フォトリアリスティックな画像やビデオを作成することができる。 テクノロジーはいくつかのアプリケーションに応用できる可能性があるが、自動再現の悪意ある使用は、非常に大きな社会的意味を持つ。 そのため、実際の画像と映像を区別する検出技術を開発することが重要である。 本研究では,再現性に基づく変化を検出する学習アルゴリズムを提案する。 提案アルゴリズムはマルチストリームネットワークを用いて局所的なアーティファクトを学習し,様々な圧縮レベルで堅牢な性能を提供する。 また,提案ネットワークにおけるストリームの均衡学習のための損失関数を提案する。 パフォーマンスは公開のfaceforensicsデータセットで評価される。 その結果,ノー,イージー,ハードの圧縮係数はそれぞれ99.96%,99.10%,91.20%であった。

Visual content has become the primary source of information, as evident in the billions of images and videos, shared and uploaded on the Internet every single day. This has led to an increase in alterations in images and videos to make them more informative and eye-catching for the viewers worldwide. Some of these alterations are simple, like copy-move, and are easily detectable, while other sophisticated alterations like reenactment based DeepFakes are hard to detect. Reenactment alterations allow the source to change the target expressions and create photo-realistic images and videos. While technology can be potentially used for several applications, the malicious usage of automatic reenactment has a very large social implication. It is therefore important to develop detection techniques to distinguish real images and videos with the altered ones. This research proposes a learning-based algorithm for detecting reenactment based alterations. The proposed algorithm uses a multi-stream network that learns regional artifacts and provides a robust performance at various compression levels. We also propose a loss function for the balanced learning of the streams for the proposed network. The performance is evaluated on the publicly available FaceForensics dataset. The results show state-of-the-art classification accuracy of 99.96%, 99.10%, and 91.20% for no, easy, and hard compression factors, respectively.
翻訳日:2023-01-08 00:09:55 公開日:2020-01-21
# 加速度フレームワークを用いたステレオ画像の深さベース選択ブラリング

Depth-Based Selective Blurring in Stereo Images Using Accelerated Framework ( http://arxiv.org/abs/2001.07809v1 )

ライセンス: Link先を確認
Subhayan Mukherjee, Ram Mohana Reddy Guddeti(参考訳) 本稿では,ブロックと領域ベースステレオマッチングを組み合わせたステレオ異方性推定手法を提案する。 これは18%のピクセル(左か右か)の異なる測定値から濃密な深度マップを生成する。 この手法は、高速K-Means実装を用いた画素輝度値の分割、形態的フィルタリングと連結成分分析によるセグメント境界の精製、そして絶対差分(SAD)コスト関数の和を用いた境界の差分決定を含む。 完全な格差マップは、境界の格差から再構築される。 そこで本研究では,gaussian blurを用いたステレオ画像の非興味領域の奥行きに基づく選択的ぼやき手法の応用について検討する。 ミドルベリーデータセットの実験では,SADと正規化クロス相関を最大33.6%,最近の手法を最大6.1%,従来の不均一性推定手法よりも優れていた。 さらに,250ステレオビデオフレーム (4,096 x 2,304) の5.8倍の高速化を実現するため,java スレッドプールと aparapi に基づく cpu と gpu フレームワークを用いて高い並列性を実現する。

We propose a hybrid method for stereo disparity estimation by combining block and region-based stereo matching approaches. It generates dense depth maps from disparity measurements of only 18 % image pixels (left or right). The methodology involves segmenting pixel lightness values using fast K-Means implementation, refining segment boundaries using morphological filtering and connected components analysis; then determining boundaries' disparities using sum of absolute differences (SAD) cost function. Complete disparity maps are reconstructed from boundaries' disparities. We consider an application of our method for depth-based selective blurring of non-interest regions of stereo images, using Gaussian blur to de-focus users' non-interest regions. Experiments on Middlebury dataset demonstrate that our method outperforms traditional disparity estimation approaches using SAD and normalized cross correlation by up to 33.6 % and some recent methods by up to 6.1 %. Further, our method is highly parallelizable using CPU and GPU framework based on Java Thread Pool and APARAPI with speed-up of 5.8 for 250 stereo video frames (4,096 x 2,304).
翻訳日:2023-01-08 00:02:48 公開日:2020-01-21
# Lyceum: ロボット学習のための効率的でスケーラブルなエコシステム

Lyceum: An efficient and scalable ecosystem for robot learning ( http://arxiv.org/abs/2001.07343v1 )

ライセンス: Link先を確認
Colin Summers, Kendall Lowrey, Aravind Rajeswaran, Siddhartha Srinivasa, Emanuel Todorov(参考訳) ロボット学習のための高性能計算エコシステムLyceumを紹介する。 Lyceumは、Juliaプログラミング言語とMuJoCo物理シミュレータの上に構築されており、ハイレベルプログラミング言語の使いやすさとネイティブCのパフォーマンスを組み合わせている。 全体として、環境の複雑さに応じて、LyceumはOpenAIのGymやDeepMindのdmコントロールといった一般的な抽象化に比べて5~30倍高速である。 これにより、さまざまな強化学習アルゴリズムのトレーニング時間を大幅に短縮すると同時に、MuJoCoによるリアルタイムモデル予測制御をサポートすることができる。 コード、チュートリアル、デモビデオは、www.lyceum.mlで見ることができる。

We introduce Lyceum, a high-performance computational ecosystem for robot learning. Lyceum is built on top of the Julia programming language and the MuJoCo physics simulator, combining the ease-of-use of a high-level programming language with the performance of native C. In addition, Lyceum has a straightforward API to support parallel computation across multiple cores and machines. Overall, depending on the complexity of the environment, Lyceum is 5-30x faster compared to other popular abstractions like OpenAI's Gym and DeepMind's dm-control. This substantially reduces training time for various reinforcement learning algorithms; and is also fast enough to support real-time model predictive control through MuJoCo. The code, tutorials, and demonstration videos can be found at: www.lyceum.ml.
翻訳日:2023-01-08 00:02:26 公開日:2020-01-21
# テキストの階層的位置正規化システム

A Hierarchical Location Normalization System for Text ( http://arxiv.org/abs/2001.07320v1 )

ライセンス: Link先を確認
Dongyun Liang, Guohua Wang, Jing Nie, Binxu Zhai and Xiusen Gu(参考訳) 最近は、大量の文書から地元の出来事を知るのが自然です。 多くのテキストには、都市名や道路名など、常に不完全あるいは潜在的な位置情報が含まれている。 テキストの管理領域を抽出し、位置正規化と呼ばれる領域階層を整理することが重要である。 既存の検出位置システムは階層的正規化を除外するか、特定の領域にのみ存在する。 我々は,中国の階層的行政区分によるテキストの正規化を行うROIBaseというシステムを提案する。 ROIBaseは、管理領域のヒットを評価するための基本的なフレームワークとして共起制約を採用し、特別な埋め込みによる推論を実現し、ROI(関心領域)によるリコールを拡張する。 それは主に明確な知識に基づいており、教師付きモデルよりも複雑な論理を持っているため、高い効率性と解釈性を持っている。 ROIBaseは実現可能なソリューションに対して優れた性能を実現し,位置正規化のための強力なサポートシステムとして有用であることを示す。

It's natural these days for people to know the local events from massive documents. Many texts contain location information, such as city name or road name, which is always incomplete or latent. It's significant to extract the administrative area of the text and organize the hierarchy of area, called location normalization. Existing detecting location systems either exclude hierarchical normalization or present only a few specific regions. We propose a system named ROIBase that normalizes the text by the Chinese hierarchical administrative divisions. ROIBase adopts a co-occurrence constraint as the basic framework to score the hit of the administrative area, achieves the inference by special embeddings, and expands the recall by the ROI (region of interest). It has high efficiency and interpretability because it mainly establishes on the definite knowledge and has less complex logic than the supervised models. We demonstrate that ROIBase achieves better performance against feasible solutions and is useful as a strong support system for location normalization.
翻訳日:2023-01-08 00:02:08 公開日:2020-01-21
# 合成プロトタイプによる長さ制御可能な抽象要約

Length-controllable Abstractive Summarization by Guiding with Summary Prototype ( http://arxiv.org/abs/2001.07331v1 )

ライセンス: Link先を確認
Itsumi Saito, Kyosuke Nishida, Kosuke Nishida, Atsushi Otsuka, Hisako Asano, Junji Tomita, Hiroyuki Shindo, Yuji Matsumoto(参考訳) 長さ制御可能な抽象要約モデルを提案する。 エンコーダデコーダモデルに基づく最近の最先端抽象要約モデルでは、ソーステキスト毎に1つの要約しか生成できない。 しかしながら、制御可能な要約(特に長さ)は実用上重要な側面である。 長さ制御可能な抽象要約に関する従来の研究は、要約長を制御するデコーダモジュールに長さ埋め込みを組み込んでいる。 長さ埋め込みはデコードを止める場所を制御することができるが、長さ制約内の要約にどの情報を含めるべきかは決定しない。 従来のモデルとは異なり、長さ制御可能な抽象要約モデルは、長さ埋め込みの代わりにエンコーダデコーダモデルにワードレベルの抽出モジュールを組み込む。 我々のモデルは2つのステップで要約を生成する。 まず、単語レベルの重要度スコアと長さ制約に応じて、単語レベルの抽出器が、ソーステキストから重要単語のシーケンスを抽出する(これを「プロトタイプテキスト」と呼ぶ)。 次に、プロトタイプテキストをエンコーダ・デコーダモデルに追加入力として使用し、プロトタイプテキストとソーステキストの両方からの単語を共同でエンコードして要約を生成する。 プロトタイプテキストは要約の内容と長さの両方のガイドであるため,本モデルでは情報と長さを制御した要約を生成することができる。 CNN/Daily MailデータセットとNEWSROOMデータセットによる実験により、我々のモデルは、長さ制御された設定で過去のモデルよりも優れていた。

We propose a new length-controllable abstractive summarization model. Recent state-of-the-art abstractive summarization models based on encoder-decoder models generate only one summary per source text. However, controllable summarization, especially of the length, is an important aspect for practical applications. Previous studies on length-controllable abstractive summarization incorporate length embeddings in the decoder module for controlling the summary length. Although the length embeddings can control where to stop decoding, they do not decide which information should be included in the summary within the length constraint. Unlike the previous models, our length-controllable abstractive summarization model incorporates a word-level extractive module in the encoder-decoder model instead of length embeddings. Our model generates a summary in two steps. First, our word-level extractor extracts a sequence of important words (we call it the "prototype text") from the source text according to the word-level importance scores and the length constraint. Second, the prototype text is used as additional input to the encoder-decoder model, which generates a summary by jointly encoding and copying words from both the prototype text and source text. Since the prototype text is a guide to both the content and length of the summary, our model can generate an informative and length-controlled summary. Experiments with the CNN/Daily Mail dataset and the NEWSROOM dataset show that our model outperformed previous models in length-controlled settings.
翻訳日:2023-01-08 00:01:55 公開日:2020-01-21
# 知識グラフのための物理埋め込みモデル

A Physical Embedding Model for Knowledge Graphs ( http://arxiv.org/abs/2001.07418v1 )

ライセンス: Link先を確認
Caglar Demir and Axel-Cyrille Ngonga Ngomo(参考訳) 知識グラフ埋め込み法は知識グラフの実体に対する連続ベクトル表現を学習し、多くのアプリケーションでうまく使われている。 本稿では,知識グラフの埋め込み計算のための新しい,スケーラブルなパラダイムを提案する。 提案手法は,Hookeの法則に基づく物理モデルと,シミュレーションアニーリングから知識グラフへの埋め込みを効率的に計算するアイデアとを組み合わせる。 PYKE が線型空間複雑性を実現することを証明する。 我々のアプローチの初期化の時間的複雑さは二次的であるが、それぞれのイテレーションの時間的複雑さは入力知識グラフのサイズにおいて線形である。 したがって、PYKE全体のランタイムは線形に近い。 したがって,本手法は,数百万のトリプルを含む知識グラフに容易にスケールアップできる。 我々は,2つの実験において,dronebank と dbpedia データセットに対する 6 つの最先端の埋め込みアプローチに対するアプローチを評価した。 第1シリーズでは、PYKEによって達成されたクラスタの純度が、最先端技術よりも最大26%(絶対)高いことが示されている。 加えて、PYKEは、ベストケースにおける既存の埋め込みソリューションの22倍以上の速度である。 第2の一連の実験の結果、pykeは優れたスケーラビリティを維持しつつ、型予測に関する最先端の技術よりも最大23%(絶対的)に優れていることが分かりました。 私たちの実装と結果はオープンソースで、http://github.com/dice-group/pyke.com/で利用できます。

Knowledge graph embedding methods learn continuous vector representations for entities in knowledge graphs and have been used successfully in a large number of applications. We present a novel and scalable paradigm for the computation of knowledge graph embeddings, which we dub PYKE . Our approach combines a physical model based on Hooke's law and its inverse with ideas from simulated annealing to compute embeddings for knowledge graphs efficiently. We prove that PYKE achieves a linear space complexity. While the time complexity for the initialization of our approach is quadratic, the time complexity of each of its iterations is linear in the size of the input knowledge graph. Hence, PYKE's overall runtime is close to linear. Consequently, our approach easily scales up to knowledge graphs containing millions of triples. We evaluate our approach against six state-of-the-art embedding approaches on the DrugBank and DBpedia datasets in two series of experiments. The first series shows that the cluster purity achieved by PYKE is up to 26% (absolute) better than that of the state of art. In addition, PYKE is more than 22 times faster than existing embedding solutions in the best case. The results of our second series of experiments show that PYKE is up to 23% (absolute) better than the state of art on the task of type prediction while maintaining its superior scalability. Our implementation and results are open-source and are available at http://github.com/dice-group/PYKE.
翻訳日:2023-01-08 00:01:34 公開日:2020-01-21
# ポルトガル語の構文・意味分析のためのセンス埋め込みの生成

Generating Sense Embeddings for Syntactic and Semantic Analogy for Portuguese ( http://arxiv.org/abs/2001.07574v1 )

ライセンス: Link先を確認
Jessica Rodrigues da Silva, Helena de Medeiros Caseli(参考訳) 単語埋め込みは、単語や概念を低次元連続空間で表現できる数値ベクトルである。 これらのベクトルは、有用な構文的および意味的情報をキャプチャすることができる。 Word2Vec、GloVe、FastTextといった従来のアプローチには厳格な欠点がある。 本稿では,感覚埋め込みを生成する手法を用いて,ポルトガル語による最初の実験を行う。 本実験により, 構文的, 意味的類似タスクにおいて, 感覚ベクトルは従来の単語ベクトルよりも優れており, ポルトガル語におけるNLPタスクの性能を向上させることが証明された。

Word embeddings are numerical vectors which can represent words or concepts in a low-dimensional continuous space. These vectors are able to capture useful syntactic and semantic information. The traditional approaches like Word2Vec, GloVe and FastText have a strict drawback: they produce a single vector representation per word ignoring the fact that ambiguous words can assume different meanings. In this paper we use techniques to generate sense embeddings and present the first experiments carried out for Portuguese. Our experiments show that sense vectors outperform traditional word vectors in syntactic and semantic analogy tasks, proving that the language resource generated here can improve the performance of NLP tasks in Portuguese.
翻訳日:2023-01-08 00:01:16 公開日:2020-01-21
# 新しい単語が生まれる場所--ニューロジズムとその意味的近傍の分布論的意味分析

Where New Words Are Born: Distributional Semantic Analysis of Neologisms and Their Semantic Neighborhoods ( http://arxiv.org/abs/2001.07740v1 )

ライセンス: Link先を確認
Maria Ryskina, Ella Rabinovich, Taylor Berg-Kirkpatrick, David R. Mortensen, Yulia Tsvetkov(参考訳) 言語に新しい単語が出現する過程であるネオロジー現象を統計的に解析し,大語彙の英語コーパスを用いて分析した。 セマンティクスパラダイムで定式化されたセマンティクスの隣人のセマンティクススパーシティと頻度成長率の2つの要因の重要性について検討した。 いずれの因子も単語出現の予測であるが,後者の仮説に対する支持は大きい。 本研究は, 分散意味論の新たな言語的応用に加えて, 言語外的要因による言語変化における言語内的要因(この場合, 空間的要因)の役割に関する言語学的問題に取り組む。

We perform statistical analysis of the phenomenon of neology, the process by which new words emerge in a language, using large diachronic corpora of English. We investigate the importance of two factors, semantic sparsity and frequency growth rates of semantic neighbors, formalized in the distributional semantics paradigm. We show that both factors are predictive of word emergence although we find more support for the latter hypothesis. Besides presenting a new linguistic application of distributional semantics, this study tackles the linguistic question of the role of language-internal factors (in our case, sparsity) in language change motivated by language-external factors (reflected in frequency growth).
翻訳日:2023-01-08 00:00:50 公開日:2020-01-21
# 医療のためのセキュアで堅牢な機械学習:調査

Secure and Robust Machine Learning for Healthcare: A Survey ( http://arxiv.org/abs/2001.08103v1 )

ライセンス: Link先を確認
Adnan Qayyum, Junaid Qadir, Muhammad Bilal, and Ala Al-Fuqaha(参考訳) 近年,1次元の心臓信号からの心停止の予測から,多次元の医療画像を用いたコンピュータ支援診断(CADx)まで,さまざまな医療応用において,機械学習(ML)/深層学習(DL)技術の普及が進んでいる。 ml/dlの印象的なパフォーマンスにもかかわらず、医療環境でのml/dlの堅牢性に関する疑念は依然として残っている(これは伝統的に無数のセキュリティとプライバシの問題のために非常に困難であると考えられている)。 本稿では,セキュリティやプライバシの観点から,医療分野におけるさまざまな応用分野について概観し,関連する課題について述べる。 さらに,医療アプリケーションに対する安全かつプライバシ保護型MLを実現するための潜在的手法を提案する。 最後に,現在の研究課題と今後の研究に期待できる方向性について考察する。

Recent years have witnessed widespread adoption of machine learning (ML)/deep learning (DL) techniques due to their superior performance for a variety of healthcare applications ranging from the prediction of cardiac arrest from one-dimensional heart signals to computer-aided diagnosis (CADx) using multi-dimensional medical images. Notwithstanding the impressive performance of ML/DL, there are still lingering doubts regarding the robustness of ML/DL in healthcare settings (which is traditionally considered quite challenging due to the myriad security and privacy issues involved), especially in light of recent results that have shown that ML/DL are vulnerable to adversarial attacks. In this paper, we present an overview of various application areas in healthcare that leverage such techniques from security and privacy point of view and present associated challenges. In addition, we present potential methods to ensure secure and privacy-preserving ML for healthcare applications. Finally, we provide insight into the current research challenges and promising directions for future research.
翻訳日:2023-01-07 23:53:38 公開日:2020-01-21
# ガイド画像超解像のためのマルチモーダル深部展開

Multimodal Deep Unfolding for Guided Image Super-Resolution ( http://arxiv.org/abs/2001.07575v1 )

ライセンス: Link先を確認
Iman Marivani, Evaggelia Tsiligianni, Bruno Cornelis and Nikos Deligiannis(参考訳) 低分解能観察による高分解能画像の再構成は、画像の逆問題である。 ディープラーニング手法は、低解像度入力から高解像度出力へのエンドツーエンドマッピングを学習するために、トレーニングデータに依存する。 問題に関するドメイン知識を組み込まない既存の深層多モードモデルとは違って,スパース事前を組み込んだマルチモーダル深層学習設計を提案し,他の画像モダリティからの情報をネットワークアーキテクチャに効果的に統合する。 提案手法は,サイド情報を用いた畳み込みスパース符号化の反復アルゴリズムに類似した,新しいディープ展開演算子に依存しているため,提案したニューラルネットワークは設計によって解釈可能である。 深層展開アーキテクチャは、ガイド画像超解像のためのマルチモーダルフレームワークのコアコンポーネントとして使用される。 残留学習を用いて学習効率を向上させることで,代替のマルチモーダル設計を提案する。 提案手法は、近赤外・マルチスペクトル画像の超高分解能化や、RGB画像による深度アップサンプリングに応用される。 実験の結果,本モデルは最先端手法よりも優れていた。

The reconstruction of a high resolution image given a low resolution observation is an ill-posed inverse problem in imaging. Deep learning methods rely on training data to learn an end-to-end mapping from a low-resolution input to a high-resolution output. Unlike existing deep multimodal models that do not incorporate domain knowledge about the problem, we propose a multimodal deep learning design that incorporates sparse priors and allows the effective integration of information from another image modality into the network architecture. Our solution relies on a novel deep unfolding operator, performing steps similar to an iterative algorithm for convolutional sparse coding with side information; therefore, the proposed neural network is interpretable by design. The deep unfolding architecture is used as a core component of a multimodal framework for guided image super-resolution. An alternative multimodal design is investigated by employing residual learning to improve the training efficiency. The presented multimodal approach is applied to super-resolution of near-infrared and multi-spectral images as well as depth upsampling using RGB images as side information. Experimental results show that our model outperforms state-of-the-art methods.
翻訳日:2023-01-07 23:52:58 公開日:2020-01-21
# 適応ネットワークを用いたブロックワイズスクランブル画像認識

Block-wise Scrambled Image Recognition Using Adaptation Network ( http://arxiv.org/abs/2001.07761v1 )

ライセンス: Link先を確認
Koki Madono, Masayuki Tanaka, Masaki Onishi, Tetsuji Ogawa(参考訳) 本研究では,人間が認識できるが機械ではない画像を生成するために,知覚的に隠された物体認識法を検討した。 したがって、知覚情報隠蔽法と対応する物体認識法の両方を開発すべきである。 第三者から知覚情報を隠蔽するためにブロックワイド画像スクランブルを導入する。 さらに,これらのスクランブル画像を認識するために適応ネットワークを提案する。 CIFARデータセットを用いて行った実験の結果,提案した適応ネットワークはDNN画像分類に隠れた単純な知覚情報をうまく組み込むことができた。

In this study, a perceptually hidden object-recognition method is investigated to generate secure images recognizable by humans but not machines. Hence, both the perceptual information hiding and the corresponding object recognition methods should be developed. Block-wise image scrambling is introduced to hide perceptual information from a third party. In addition, an adaptation network is proposed to recognize those scrambled images. Experimental comparisons conducted using CIFAR datasets demonstrated that the proposed adaptation network performed well in incorporating simple perceptual information hiding into DNN-based image classification.
翻訳日:2023-01-07 23:52:23 公開日:2020-01-21
# 凸最適化手法を用いた超解像ニューラルネットワークの適応損失関数

Adaptive Loss Function for Super Resolution Neural Networks Using Convex Optimization Techniques ( http://arxiv.org/abs/2001.07766v1 )

ライセンス: Link先を確認
Seyed Mehdi Ayyoubzadeh, Xiaolin Wu(参考訳) Single Image Super-Resolution (SISR)タスクは、低解像度画像から対応する高解像度画像へのマッピングを学ぶことを指す。 この課題は不適切な問題であるため非常に難しいことが知られている。 近年,畳み込みニューラルネットワーク(cnns)がsisrにおける技術性能の水準に達している。 しかし、CNNが生成した画像には画像の詳細は含まれていない。 generative adversarial networks (gans) はこの問題を解決し、鋭い詳細を回復することを目指している。 しかし、GANは訓練が難しいことで知られている。 さらに、高解像度画像にアーティファクトを生成する。 本稿では,cnnが画素空間のみでなく,異なる空間に画像を整列させようとする手法を提案する。 このような空間は凸最適化技術を用いて設計される。 CNNは、画像の高周波成分と低周波成分を学習することを奨励されている。 提案手法は,画像の細部を復元でき,訓練過程において安定であることを示す。

Single Image Super-Resolution (SISR) task refers to learn a mapping from low-resolution images to the corresponding high-resolution ones. This task is known to be extremely difficult since it is an ill-posed problem. Recently, Convolutional Neural Networks (CNNs) have achieved state of the art performance on SISR. However, the images produced by CNNs do not contain fine details of the images. Generative Adversarial Networks (GANs) aim to solve this issue and recover sharp details. Nevertheless, GANs are notoriously difficult to train. Besides that, they generate artifacts in the high-resolution images. In this paper, we have proposed a method in which CNNs try to align images in different spaces rather than only the pixel space. Such a space is designed using convex optimization techniques. CNNs are encouraged to learn high-frequency components of the images as well as low-frequency components. We have shown that the proposed method can recover fine details of the images and it is stable in the training process.
翻訳日:2023-01-07 23:52:14 公開日:2020-01-21
# 人物再同定のための部分分解能を用いた多様な特徴の学習

Learning Diverse Features with Part-Level Resolution for Person Re-Identification ( http://arxiv.org/abs/2001.07442v1 )

ライセンス: Link先を確認
Ben Xie, Xiaofu Wu, Suofei Zhang, Shiliang Zhao, Ming Li(参考訳) 多様な特徴を学ぶことが、人物の再識別の成功の鍵となる。 局所表現を学習するために様々な部分ベース手法が提案されているが、個人再同定のための最善の手法にはまだ劣っている。 本稿では,Omni-Scale Network(OSNet)上でのパートレベル機能解決の考え方に基づいて,PLR-OSNetと呼ばれる軽量ネットワークアーキテクチャを構築することを提案する。 提案したPLR-OSNetには,グローバルな特徴表現のためのブランチと,ローカルな特徴表現のためのブランチの2つのブランチがある。 ローカルブランチは、部分レベルの特徴解決のために一様分割戦略を採用しているが、既存の部分ベースの方法とは対照的な単一のアイデンティティ予測損失しか発生しない。 PLR-OSNetは、モデルサイズが小さいにもかかわらず、Market1501、DukeMTMC-reID、CUHK03などの人気人物のRe-IDデータセットに対して、最先端のパフォーマンスを実現するという実証的な証拠がある。

Learning diverse features is key to the success of person re-identification. Various part-based methods have been extensively proposed for learning local representations, which, however, are still inferior to the best-performing methods for person re-identification. This paper proposes to construct a strong lightweight network architecture, termed PLR-OSNet, based on the idea of Part-Level feature Resolution over the Omni-Scale Network (OSNet) for achieving feature diversity. The proposed PLR-OSNet has two branches, one branch for global feature representation and the other branch for local feature representation. The local branch employs a uniform partition strategy for part-level feature resolution but produces only a single identity-prediction loss, which is in sharp contrast to the existing part-based methods. Empirical evidence demonstrates that the proposed PLR-OSNet achieves state-of-the-art performance on popular person Re-ID datasets, including Market1501, DukeMTMC-reID and CUHK03, despite its small model size.
翻訳日:2023-01-07 23:45:30 公開日:2020-01-21
# ディープメトリック学習を用いた弱教師付き時間行動定位

Weakly Supervised Temporal Action Localization Using Deep Metric Learning ( http://arxiv.org/abs/2001.07793v1 )

ライセンス: Link先を確認
Ashraful Islam, Richard J. Radke(参考訳) 時間的行動のローカライゼーションはビデオ理解の重要なステップである。 現在のアクションローカライゼーション手法のほとんどは、アクションインスタンスの完全な時間的アノテーションを持つ未トリミングビデオに依存している。 しかし、アクションラベルとビデオの時間境界の両方に注釈をつけるのは高価で時間がかかる。 そこで本研究では,ビデオレベルのアクションインスタンスのみをトレーニング中の監視として必要とする,時間的行動局所化手法を提案する。 ビデオの各セグメントごとにアクションラベルを生成する分類モジュールと、異なるアクションインスタンス間の類似性を学習するための深度メートル法学習モジュールを提案する。 標準バックプロパゲーションアルゴリズムを用いて,バランスのとれたバイナリクロスエントロピー損失とメトリック損失を共同で最適化する。 広汎な実験は、両成分が時間的局所化において有効であることを示す。 提案アルゴリズムは,THUMOS14とActivityNet1.2の2つの未トリミングビデオデータセットを用いて評価する。 IoU閾値0.5でTHUMOS14を6.5%mAP改善し,ActivityNet1.2の競合性能を実現した。

Temporal action localization is an important step towards video understanding. Most current action localization methods depend on untrimmed videos with full temporal annotations of action instances. However, it is expensive and time-consuming to annotate both action labels and temporal boundaries of videos. To this end, we propose a weakly supervised temporal action localization method that only requires video-level action instances as supervision during training. We propose a classification module to generate action labels for each segment in the video, and a deep metric learning module to learn the similarity between different action instances. We jointly optimize a balanced binary cross-entropy loss and a metric loss using a standard backpropagation algorithm. Extensive experiments demonstrate the effectiveness of both of these components in temporal localization. We evaluate our algorithm on two challenging untrimmed video datasets: THUMOS14 and ActivityNet1.2. Our approach improves the current state-of-the-art result for THUMOS14 by 6.5% mAP at IoU threshold 0.5, and achieves competitive performance for ActivityNet1.2.
翻訳日:2023-01-07 23:45:11 公開日:2020-01-21
# 機械学習のロングテールのための設計

Designing for the Long Tail of Machine Learning ( http://arxiv.org/abs/2001.07455v1 )

ライセンス: Link先を確認
Martin Lindvall and Jesper Molin(参考訳) 最近の技術進歩により、機械学習(ml)はエンドユーザー向けシステムを含む有望なコンポーネントとなった。 しかしながら、ユーザエクスペリエンス(UX)実践者は、MLと既存のユーザ中心の設計プロセスとの関係と、このデザイン空間の可能性と制約をナビゲートする方法の課題に直面します。 私たちの経験から考えると、私たちはこの領域における設計を、データ収集、モデル開発、および特定のモデルパフォーマンスのための貴重なインタラクションの設計の間のトレードオフをナビゲートするものとして特徴づけています。 機械学習のパフォーマンスをトレーニングデータでどのようにスケールするかの理論的な記述は、デザイナーがこれらのトレードオフを導くだけでなく、プロトタイピングにも影響を与えることを示唆する。 学習曲線の用例を,データ収集のトレーニング効果を桁違いに活用することを目的としたブートストラップフェーズにおける初期システムの設計が有用なパターンであると主張する。

Recent technical advances has made machine learning (ML) a promising component to include in end user facing systems. However, user experience (UX) practitioners face challenges in relating ML to existing user-centered design processes and how to navigate the possibilities and constraints of this design space. Drawing on our own experience, we characterize designing within this space as navigating trade-offs between data gathering, model development and designing valuable interactions for a given model performance. We suggest that the theoretical description of how machine learning performance scales with training data can guide designers in these trade-offs as well as having implications for prototyping. We exemplify the learning curve's usage by arguing that a useful pattern is to design an initial system in a bootstrap phase that aims to exploit the training effect of data collected at increasing orders of magnitude.
翻訳日:2023-01-07 23:44:55 公開日:2020-01-21
# 大規模デジタル農業のための人工知能:技術,政策,課題

Artificial Intelligence for Digital Agriculture at Scale: Techniques, Policies, and Challenges ( http://arxiv.org/abs/2001.09786v1 )

ライセンス: Link先を確認
Somali Chaterji, Nathan DeLay, John Evans, Nathan Mosier, Bernard Engel, Dennis Buckmaster and Ranveer Chandra(参考訳) デジタル農業は農業のスループットを変えると約束している。 データサイエンスとエンジニアリングを適用して、利用可能なリソースを束縛しながら、入力要素を作物のスループットにマッピングする。 また、農業分野におけるセンサ配置の増加に伴ってデータ量や種類が増加するにつれて、分散データの収集やデータの分散処理にもデータエンジニアリングの技術が役立つ。 これらはエンドユーザとアプリケーションのレイテンシ要件が満たされるようにしなければならない。 農業技術とビッグデータが農業生産性をいかに向上させるかを理解することで、制限された耕作地と水位低下に直面した2050年までに世界の食料生産を大幅に増加させることができる。 デジタル農業の可能性について多くが書かれてきたが、これらの創発的なシステムの経済的コストと利益についてはほとんど知られていない。 特に、導入と最適な実装の両面で、現場での意思決定プロセスは適切に対処されていない。 例えば、複数のデータ所有者からのデータをプールするアルゴリズムが必要な場合、それはデータオーナシップの問題を引き起こす。 本稿では,次世代のデジタル農業ソリューションの発展に向けて,エンドツーエンドのパイプラインを導く重要な質問をまとめ,農業と持続可能性の次の革命を一つの傘で推進する。

Digital agriculture has the promise to transform agricultural throughput. It can do this by applying data science and engineering for mapping input factors to crop throughput, while bounding the available resources. In addition, as the data volumes and varieties increase with the increase in sensor deployment in agricultural fields, data engineering techniques will also be instrumental in collection of distributed data as well as distributed processing of the data. These have to be done such that the latency requirements of the end users and applications are satisfied. Understanding how farm technology and big data can improve farm productivity can significantly increase the world's food production by 2050 in the face of constrained arable land and with the water levels receding. While much has been written about digital agriculture's potential, little is known about the economic costs and benefits of these emergent systems. In particular, the on-farm decision making processes, both in terms of adoption and optimal implementation, have not been adequately addressed. For example, if some algorithm needs data from multiple data owners to be pooled together, that raises the question of data ownership. This paper is the first one to bring together the important questions that will guide the end-to-end pipeline for the evolution of a new generation of digital agricultural solutions, driving the next revolution in agriculture and sustainability under one umbrella.
翻訳日:2023-01-07 23:44:38 公開日:2020-01-21
# 深部畳み込みニューラルネットワークを用いた交通データ計算

Traffic Data Imputation using Deep Convolutional Neural Networks ( http://arxiv.org/abs/2002.04406v1 )

ライセンス: Link先を確認
Ouafa Benkraouda, Bilal Thonnam Thodi, Hwasoo Yeo, Monica Menendez, and Saif Eddin Jabari(参考訳) スパース車軌道情報を用いた統計的学習に基づく交通速度推定手法を提案する。 畳み込みエンコーダ-デコーダベースのアーキテクチャを用いて,よく訓練されたニューラルネットワークが時空間図から時空間的トラフィック速度ダイナミクスを学習できることを示す。 シミュレーション車両軌道を用いた同種道路断面の実証を行い,NGSIMによる実世界データを用いて検証した。 提案手法は, プローブ車両の浸透レベルが5\%以下であれば, マクロな交通速度を再現し, 現実的な衝撃波パターンを再現し, 様々な交通条件に適用可能であることを示す。 さらに, モデル再構成機構について考察し, 混雑・自由流交通状態, 遷移ダイナミクス, 衝撃波伝搬など, 様々な交通挙動を識別する能力を確認した。

We propose a statistical learning-based traffic speed estimation method that uses sparse vehicle trajectory information. Using a convolutional encoder-decoder based architecture, we show that a well trained neural network can learn spatio-temporal traffic speed dynamics from time-space diagrams. We demonstrate this for a homogeneous road section using simulated vehicle trajectories and then validate it using real-world data from NGSIM. Our results show that with probe vehicle penetration levels as low as 5\%, the proposed estimation method can provide a sound reconstruction of macroscopic traffic speeds and reproduce realistic shockwave patterns, implying applicability in a variety of traffic conditions. We further discuss the model's reconstruction mechanisms and confirm its ability to differentiate various traffic behaviors such as congested and free-flow traffic states, transition dynamics, and shockwave propagation.
翻訳日:2023-01-07 23:44:16 公開日:2020-01-21
# 限界値が与えられた$2\times2$テーブルの明示的な合意

Explicit agreement extremes for a $2\times2$ table with given marginals ( http://arxiv.org/abs/2001.07415v1 )

ライセンス: Link先を確認
Jos\'e E. Chac\'on(参考訳) 与えられた限界条件に従うクラスタリング間の合意を最大化(または最小化)する問題は、いくつかの合意措置のための共通の枠組みの下で正式に提起することができる。 これまでは数値アルゴリズムだけで解を見つけることができた。 ここで、2つのクラスタリングがそれぞれ2つのクラスタを持つ場合の明示的なソリューションを示す。

The problem of maximizing (or minimizing) the agreement between clusterings, subject to given marginals, can be formally posed under a common framework for several agreement measures. Until now, it was possible to find its solution only through numerical algorithms. Here, an explicit solution is shown for the case where the two clusterings have two clusters each.
翻訳日:2023-01-07 23:44:00 公開日:2020-01-21
# 微分物理学によるPDE制御の学習

Learning to Control PDEs with Differentiable Physics ( http://arxiv.org/abs/2001.07457v1 )

ライセンス: Link先を確認
Philipp Holl, Vladlen Koltun, Nils Thuerey(参考訳) 物理世界との予測結果と計画的相互作用は、機械学習の長年の目標である。 このようなタスクには、多くの自由度を持つ偏微分方程式(PDE)によって記述できる連続的な物理系が含まれる。 このようなシステムのダイナミクスを制御しようとする既存の方法は通常、比較的短い時間フレームや少数の相互作用パラメータに限定される。 本稿では,ニューラルネットワークが長い時間をかけて複雑な非線形物理系の理解と制御を学べる新しい階層型予測器・相関器手法を提案する。 我々は,問題を計画と制御という2つの異なるタスクに分割することを提案する。 そこで本研究では,最適軌跡を計画する予測ネットワークと,対応する制御パラメータを推定する制御ネットワークを提案する。 どちらの段階も、微分可能PDEソルバを用いてエンドツーエンドで訓練される。 本手法は,複雑な物理系の理解を深め,非圧縮性ナビエ・ストークス方程式のようなpdesに関わるタスクに対してその制御法を学習できることを実証する。

Predicting outcomes and planning interactions with the physical world are long-standing goals for machine learning. A variety of such tasks involves continuous physical systems, which can be described by partial differential equations (PDEs) with many degrees of freedom. Existing methods that aim to control the dynamics of such systems are typically limited to relatively short time frames or a small number of interaction parameters. We present a novel hierarchical predictor-corrector scheme which enables neural networks to learn to understand and control complex nonlinear physical systems over long time frames. We propose to split the problem into two distinct tasks: planning and control. To this end, we introduce a predictor network that plans optimal trajectories and a control network that infers the corresponding control parameters. Both stages are trained end-to-end using a differentiable PDE solver. We demonstrate that our method successfully develops an understanding of complex physical systems and learns to control them for tasks involving PDEs such as the incompressible Navier-Stokes equations.
翻訳日:2023-01-07 23:43:53 公開日:2020-01-21
# 拡散グラフを用いた高速シーケンスベース埋め込み

Fast Sequence-Based Embedding with Diffusion Graphs ( http://arxiv.org/abs/2001.07463v1 )

ライセンス: Link先を確認
Benedek Rozemberczki and Rik Sarkar(参考訳) グラフ埋め込みは低次元空間におけるグラフ頂点の表現であり、ノード間の距離のような性質をほぼ保存する。 頂点シーケンスに基づく埋め込み手順は、ニューラルネットワークを使用して埋め込みを作成するためにノードの線形シーケンスから抽出された特徴を使用する。 本稿では,ネットワーク埋め込みのための頂点列を高速に生成する手法として拡散グラフを提案する。 その計算効率は、より単純なシーケンス生成のために従来の方法よりも優れており、より正確な結果が得られる。 実験の結果,グラフのエッジ密度の増加に伴い,他の手法と比較して性能が向上することがわかった。 コミュニティ検出タスクでは、組み込み空間におけるクラスタリングノードは、他のシーケンスベースの埋め込みメソッドよりも優れた結果を生み出す。

A graph embedding is a representation of graph vertices in a low-dimensional space, which approximately preserves properties such as distances between nodes. Vertex sequence-based embedding procedures use features extracted from linear sequences of nodes to create embeddings using a neural network. In this paper, we propose diffusion graphs as a method to rapidly generate vertex sequences for network embedding. Its computational efficiency is superior to previous methods due to simpler sequence generation, and it produces more accurate results. In experiments, we found that the performance relative to other methods improves with increasing edge density in the graph. In a community detection task, clustering nodes in the embedding space produces better results compared to other sequence-based embedding methods.
翻訳日:2023-01-07 23:43:37 公開日:2020-01-21
# 長尺スパース軌道の運動量推定

Mobility Inference on Long-Tailed Sparse Trajectory ( http://arxiv.org/abs/2001.07636v1 )

ライセンス: Link先を確認
Lei Shi(参考訳) 都市における都市軌道の分析は,データマイニングにおいて重要な話題となっている。 生の軌道データから人間の移動をモデル化するにはどうすればよいか? 単一軌道情報からこのモビリティモデルをどのように推測できるのか? 時間とともにサンプリングされる実世界の軌道データに対応するために、モビリティ推論をもっと一般化するにはどうすればよいのか? 本稿では,固定・走行モビリティの形式的かつ厳密な定義に基づいて,大規模軌道データに汎用的な長尾スパルシティーパターンを用いた単一軌道推定アルゴリズムを提案する。 このアルゴリズムは、リコールで証明可能なローバウンドを持つsit/travel推論において、100\%の精度を保証する。 さらに,複数の軌道を入力として持つエンコーダ・デコーダ学習アーキテクチャを導入する。 アーキテクチャは、カスタマイズされた埋め込みと学習機構を通じて、モビリティ推論問題に最適化されている。 都市ユーザ4000万人の3つの軌跡データセットによる評価は,提案した推論アルゴリズムの性能保証を検証し,よく知られたシーケンス学習法と比較して,ディープラーニングモデルの優位性を示す。 極端にスパースな軌道上では、ディープラーニングモデルは、大規模多目的学習データに対するスケーラビリティと一般化性を通じて、単一の軌道推論アルゴリズムによる全体的な精度を2$\times$で改善する。

Analyzing the urban trajectory in cities has become an important topic in data mining. How can we model the human mobility consisting of stay and travel from the raw trajectory data? How can we infer such a mobility model from the single trajectory information? How can we further generalize the mobility inference to accommodate the real-world trajectory data that is sparsely sampled over time? In this paper, based on formal and rigid definitions of the stay/travel mobility, we propose a single trajectory inference algorithm that utilizes a generic long-tailed sparsity pattern in the large-scale trajectory data. The algorithm guarantees a 100\% precision in the stay/travel inference with a provable lower-bound in the recall. Furthermore, we introduce an encoder-decoder learning architecture that admits multiple trajectories as inputs. The architecture is optimized for the mobility inference problem through customized embedding and learning mechanism. Evaluations with three trajectory data sets of 40 million urban users validate the performance guarantees of the proposed inference algorithm and demonstrate the superiority of our deep learning model, in comparison to well-known sequence learning methods. On extremely sparse trajectories, the deep learning model achieves a 2$\times$ overall accuracy improvement from the single trajectory inference algorithm, through proven scalability and generalizability to large-scale versatile training data.
翻訳日:2023-01-07 23:43:05 公開日:2020-01-21
# TopRank+: TopRankアルゴリズムの洗練

TopRank+: A Refinement of TopRank Algorithm ( http://arxiv.org/abs/2001.07617v1 )

ライセンス: Link先を確認
Victor de la Pena, Haolin Zou(参考訳) オンライン学習のランク付けは、機械学習の中核的な問題である。 Lattimore et al. (2018)では、トポロジカルソートに基づく新しいオンライン学習アルゴリズムが提案された。 論文では、彼らは自己正規化不等式の集合を提供した (a)反復の基準としてアルゴリズムにおいて (b)アルゴリズム性能の尺度である累積後悔の上限を提供する。 本研究では,ある暗黙関数の混合と漸近展開の手法を用いて,不等式に対するより厳密で反復的なログのような境界を提供し,その結果,アルゴリズム自体と性能評価の両方を改善する。

Online learning to rank is a core problem in machine learning. In Lattimore et al. (2018), a novel online learning algorithm was proposed based on topological sorting. In the paper they provided a set of self-normalized inequalities (a) in the algorithm as a criterion in iterations and (b) to provide an upper bound for cumulative regret, which is a measure of algorithm performance. In this work, we utilized method of mixtures and asymptotic expansions of certain implicit function to provide a tighter, iterated-log-like boundary for the inequalities, and as a consequence improve both the algorithm itself as well as its performance estimation.
翻訳日:2023-01-07 23:35:38 公開日:2020-01-21
# ブースティング手法を用いたラベルランキングアンサンブルの改善

Improving Label Ranking Ensembles using Boosting Techniques ( http://arxiv.org/abs/2001.07744v1 )

ライセンス: Link先を確認
Lihi Dery and Erez Shmueli(参考訳) ラベルランク付け(英: label ranking)とは、有限集合からラベルのインスタンスとランキング(すなわち順序)の間のマッピングを学ぶことを扱う予測タスクである。 boostingはよく知られた信頼性の高いアンサンブルテクニックで、他の学習アルゴリズムよりも優れています。 多数の機械学習タスクのために強化アルゴリズムが開発されたが、ラベルランキングタスクは見落とされた。 本稿では,ラベルランキングタスク用に特別に設計されたブースティングアルゴリズムを提案する。 24の半合成および実世界のラベルランキングデータセットに対する提案アルゴリズムの広範な評価は、既存の最先端ラベルランキングアルゴリズムを著しく上回っていることを示している。

Label ranking is a prediction task which deals with learning a mapping between an instance and a ranking (i.e., order) of labels from a finite set, representing their relevance to the instance. Boosting is a well-known and reliable ensemble technique that was shown to often outperform other learning algorithms. While boosting algorithms were developed for a multitude of machine learning tasks, label ranking tasks were overlooked. In this paper, we propose a boosting algorithm which was specifically designed for label ranking tasks. Extensive evaluation of the proposed algorithm on 24 semi-synthetic and real-world label ranking datasets shows that it significantly outperforms existing state-of-the-art label ranking algorithms.
翻訳日:2023-01-07 23:35:27 公開日:2020-01-21
# 確率行列理論はGANデータの深い学習表現をガウス混合として証明する

Random Matrix Theory Proves that Deep Learning Representations of GAN-data Behave as Gaussian Mixtures ( http://arxiv.org/abs/2001.08370v1 )

ライセンス: Link先を確認
Mohamed El Amine Seddik, Cosme Louart, Mohamed Tamaazousti, Romain Couillet(参考訳) 本稿では,gan(generative adversarial nets)が生成するデータのdeep learning (dl)表現が,いわゆる \textit{concentrated} 確率ベクトルのクラスに属するランダムベクトルであることを示す。 さらに、$G = X^T X$ with $X=[x_1,\ldots,x_n]\in \mathbb{R}^{p\times n}$と$x_i$の混合モデルからの独立集中ランダムベクトルが、ガウス混合から$x_i$を引いたような漸近的に($n,p\to \infty$として)振舞うという事実を利用して、GAN-dataのDL表現は、幅広い標準分類器の最初の2つの統計的モーメントによって完全に記述できることを示唆している。 我々の理論的な発見は、bigganモデルで画像を生成し、異なる一般的なディープ表現ネットワークを通して検証される。

This paper shows that deep learning (DL) representations of data produced by generative adversarial nets (GANs) are random vectors which fall within the class of so-called \textit{concentrated} random vectors. Further exploiting the fact that Gram matrices, of the type $G = X^T X$ with $X=[x_1,\ldots,x_n]\in \mathbb{R}^{p\times n}$ and $x_i$ independent concentrated random vectors from a mixture model, behave asymptotically (as $n,p\to \infty$) as if the $x_i$ were drawn from a Gaussian mixture, suggests that DL representations of GAN-data can be fully described by their first two statistical moments for a wide range of standard classifiers. Our theoretical findings are validated by generating images with the BigGAN model and across different popular deep representation networks.
翻訳日:2023-01-07 23:35:00 公開日:2020-01-21
# ニューラルスタイルの違い伝達とフォント生成への応用

Neural Style Difference Transfer and Its Application to Font Generation ( http://arxiv.org/abs/2001.07321v1 )

ライセンス: Link先を確認
Gantugs Atarsaikhan, Brian Kenji Iwana and Seiichi Uchida(参考訳) フォントの設計には多くの時間と労力が必要です。 スケッチ、ベクトル化、画像編集といった専門的なスキルが必要です。 さらに、各文字を個別に設計する必要がある。 本稿では,フォントを自動的に作成する手法を紹介する。 提案手法では,2つの異なるフォント間のフォントスタイルの違いを発見し,ニューラルスタイル転送を用いて別のフォントに転送する。 ニューラルスタイル転送(Neural style transfer)は、画像の内容を他の画像のスタイルでスタイリングする方法である。 そこで我々はニューラルスタイル変換のための新しいニューラルスタイル差と内容差損失を提案する。 これらの損失により、フォントからフォントスタイルを追加または削除することで、新しいフォントを生成することができる。 入力フォントの様々な組み合わせによる実験結果を提供し,提案手法の限界と今後の発展について考察した。

Designing fonts requires a great deal of time and effort. It requires professional skills, such as sketching, vectorizing, and image editing. Additionally, each letter has to be designed individually. In this paper, we will introduce a method to create fonts automatically. In our proposed method, the difference of font styles between two different fonts is found and transferred to another font using neural style transfer. Neural style transfer is a method of stylizing the contents of an image with the styles of another image. We proposed a novel neural style difference and content difference loss for the neural style transfer. With these losses, new fonts can be generated by adding or removing font styles from a font. We provided experimental results with various combinations of input fonts and discussed limitations and future development for the proposed method.
翻訳日:2023-01-07 23:34:33 公開日:2020-01-21
# 神経常微分方程式を用いた伝達学習

Transfer Learning using Neural Ordinary Differential Equations ( http://arxiv.org/abs/2001.07342v1 )

ライセンス: Link先を確認
Rajath S, Sumukh Aithal K, Natarajan Subramanyam(参考訳) 伝達学習にニューラル正規微分方程式(NODE)を用いるという概念が導入された。 本稿では,cifar-10データセット上での転送学習を効率良く行う。 私たちはモデルを微調整するためにNODEを使用します。 これらの連続深度ブロックは、数値的精度と速度のトレードオフも得る。 伝達学習にニューラルODEを用いると、損失関数がかなり安定に収束する。

A concept of using Neural Ordinary Differential Equations(NODE) for Transfer Learning has been introduced. In this paper we use the EfficientNets to explore transfer learning on CIFAR-10 dataset. We use NODE for fine-tuning our model. Using NODE for fine tuning provides more stability during training and validation.These continuous depth blocks can also have a trade off between numerical precision and speed .Using Neural ODEs for transfer learning has resulted in much stable convergence of the loss function.
翻訳日:2023-01-07 23:34:23 公開日:2020-01-21
# モチーフ差分場: 分類のための時系列の単純かつ効果的な画像表現

Motif Difference Field: A Simple and Effective Image Representation of Time Series for Classification ( http://arxiv.org/abs/2001.07582v1 )

ライセンス: Link先を確認
Yadong Zhang and Xin Chen(参考訳) 時系列モチーフは時系列分析において重要な役割を果たす。 モチーフに基づく時系列クラスタリングは、時系列データの高次パターンや構造の発見に使用される。 時系列の画像表現に基づく畳み込みニューラルネットワーク(CNN)分類器にインスパイアされたモチーフ差分場(MDF)を提案する。 時系列の他の画像表現と比較して、MDFは単純で簡単に構築できる。 完全畳み込みネットワーク (FCN) を分類器として, MDF は他の時系列分類手法と比較して, UCR 時系列データセットにおいて優れた性能を示す。 トライ進時系列のモチーフがテストで最高の結果を与えるのが興味深い。 MDFに反映されるモチーフクラスタリングにより、グラディエント重み付きクラス活性化マッピング(Grad-CAM)の助けを借りて重要なモチーフを検出する。 Grad-CAMの重みのあるMDFの領域は、時系列のシグネチャパターンに関連付けられた所望の順序パターンに重要なモチーフから大きな貢献をしている。 しかし、署名パターンは時系列に基づいてニューラルネットワーク分類器と直接識別することはできない。

Time series motifs play an important role in the time series analysis. The motif-based time series clustering is used for the discovery of higher-order patterns or structures in time series data. Inspired by the convolutional neural network (CNN) classifier based on the image representations of time series, motif difference field (MDF) is proposed. Compared to other image representations of time series, MDF is simple and easy to construct. With the Fully Convolution Network (FCN) as the classifier, MDF demonstrates the superior performance on the UCR time series dataset in benchmark with other time series classification methods. It is interesting to find that the triadic time series motifs give the best result in the test. Due to the motif clustering reflected in MDF, the significant motifs are detected with the help of the Gradient-weighted Class Activation Mapping (Grad-CAM). The areas in MDF with high weight in Grad-CAM have a high contribution from the significant motifs with the desired ordinal patterns associated with the signature patterns in time series. However, the signature patterns cannot be identified with the neural network classifiers directly based on the time series.
翻訳日:2023-01-07 23:27:49 公開日:2020-01-21
# batchboost:アンダーフィッティングとオーバーフィッティングへの抵抗によるトレーニングの安定化のための正規化

batchboost: regularization for stabilizing training with resistance to underfitting & overfitting ( http://arxiv.org/abs/2001.07627v1 )

ライセンス: Link先を確認
Maciej A. Czyzewski(参考訳) オーバーフィッティングとアンダーフィッティングと安定したトレーニングは、機械学習において重要な課題である。 これらの問題の現在のアプローチは、mixup、SamplePairing、BC学習である。 我々の研究では、多くの画像を混ぜ合わせることは2つ以上の効果があるという仮説を述べている。 Batchboostパイプラインには3つのステージがある。 (a)ペアリング:2つのサンプルを選択する方法。 (b)ミキシング:2つのサンプルから新しいミキシングを作成する方法。 (c) 摂食: 混合サンプルとデータセットからの新しいサンプルをバッチ(比$\gamma$)に組み合わせる。 私たちのバッチに現れるサンプルは、トレーニングの終了まで重要度が減り、その後のイテレーションで伝播します。 ペアリングステージはサンプルあたりのエラーを計算し、サンプルとペアを戦略でソートする:最も簡単なものは、x_1 + (1-\lambda)x_2$という2つのサンプルを混合するよりも難しい。 最後に、給餌段階は、新しいサンプルと比1:1の混合を組み合わせる。 Batchboostは、CIFAR-10とFashion-MNISTの最先端の混合正規化よりも0.5-3%精度が高い。 我々の手法は、小さなデータセット(最大5%)のSamplePairing手法よりも若干優れている。 Batchboostは、調整されていないパラメータ(重み付け減衰など)の安定したトレーニングを提供するため、異なるアーキテクチャのパフォーマンスをテストするのによい方法である。 ソースコード: https://github.com/maciejczyzewski/batchboost

Overfitting & underfitting and stable training are an important challenges in machine learning. Current approaches for these issues are mixup, SamplePairing and BC learning. In our work, we state the hypothesis that mixing many images together can be more effective than just two. Batchboost pipeline has three stages: (a) pairing: method of selecting two samples. (b) mixing: how to create a new one from two samples. (c) feeding: combining mixed samples with new ones from dataset into batch (with ratio $\gamma$). Note that sample that appears in our batch propagates with subsequent iterations with less and less importance until the end of training. Pairing stage calculates the error per sample, sorts the samples and pairs with strategy: hardest with easiest one, than mixing stage merges two samples using mixup, $x_1 + (1-\lambda)x_2$. Finally, feeding stage combines new samples with mixed by ratio 1:1. Batchboost has 0.5-3% better accuracy than the current state-of-the-art mixup regularization on CIFAR-10 & Fashion-MNIST. Our method is slightly better than SamplePairing technique on small datasets (up to 5%). Batchboost provides stable training on not tuned parameters (like weight decay), thus its a good method to test performance of different architectures. Source code is at: https://github.com/maciejczyzewski/batchboost
翻訳日:2023-01-07 23:27:32 公開日:2020-01-21
# 進化可能な形態をもつモジュラーロボットにおける学習方向移動

Learning Directed Locomotion in Modular Robots with Evolvable Morphologies ( http://arxiv.org/abs/2001.07804v1 )

ライセンス: Link先を確認
Gongjin Lan, Matteo De Carlo, Fuda van Diggelen, Jakub M. Tomczak, Diederik M. Roijers, and A.E. Eiben(参考訳) モジュラーロボットにおける歩行学習のよく研究された問題を2次元に一般化する。 まず、特定の目標方向の移動に対処し、典型的な無向歩行を学習する。 第二に、固定されたロボット形態を研究するのではなく、異なるモジュールロボットのテストスイートを考える。 この研究は、形態学とコントローラの両方が進化する進化ロボットシステムに対する我々の関心に基づいている。 このようなシステムでは、新生児ロボットは、両親の身体のランダムな組み合わせである自身の身体を制御することを学ばなければならない。 ベイズ最適化とHyperNEATという2つの学習アルゴリズムを適用して比較する。 シミュレーション実験の結果,両手法とも優れた制御器を学習できたが,ベイズ最適化の方が効率的で効率的であることがわかった。 実世界におけるテストスイートから3つのロボットを構築し,その適合性と実際の軌道を観察することにより,最良の学習コントローラを検証する。 得られた結果は,ロボットの制御器や形状に依存する現実的なギャップを示すが,全体的な軌道は適切であり,目標方向を追従できる。

We generalize the well-studied problem of gait learning in modular robots in two dimensions. Firstly, we address locomotion in a given target direction that goes beyond learning a typical undirected gait. Secondly, rather than studying one fixed robot morphology we consider a test suite of different modular robots. This study is based on our interest in evolutionary robot systems where both morphologies and controllers evolve. In such a system, newborn robots have to learn to control their own body that is a random combination of the bodies of the parents. We apply and compare two learning algorithms, Bayesian optimization and HyperNEAT. The results of the experiments in simulation show that both methods successfully learn good controllers, but Bayesian optimization is more effective and efficient. We validate the best learned controllers by constructing three robots from the test suite in the real world and observe their fitness and actual trajectories. The obtained results indicate a reality gap that depends on the controllers and the shape of the robots, but overall the trajectories are adequate and follow the target directions successfully.
翻訳日:2023-01-07 23:26:29 公開日:2020-01-21
# DLGA-PDE:ディープラーニングと遺伝的アルゴリズムを組み合わせた不完全候補ライブラリによるPDEの発見

DLGA-PDE: Discovery of PDEs with incomplete candidate library via combination of deep learning and genetic algorithm ( http://arxiv.org/abs/2001.07305v1 )

ライセンス: Link先を確認
Hao Xu, Haibin Chang, Dongxiao Zhang(参考訳) データ駆動法は、物理問題の基礎となる偏微分方程式(pdes)を発見するために最近開発された。 しかしながら、これらの方法には、PDEにおける潜在的項の完全な候補ライブラリが通常必要である。 この制限を克服するために,深層学習と遺伝的アルゴリズムを組み合わせた新しい枠組みであるDLGA-PDEを提案する。 提案手法では,物理問題の利用可能なデータを用いて学習した深層ニューラルネットワークを用いてメタデータを生成し,導関数を計算し,遺伝的アルゴリズムを用いて基盤となるpdeを探索する。 突然変異や交叉といった遺伝的アルゴリズムの利点により、DLGA-PDEは不完全候補ライブラリーで動作する。 提案したDLGA-PDEは,概念実証のために,KdV方程式,バーガース方程式,波動方程式,チャフィー・インファンテ方程式の発見のためにそれぞれ試験された。 ノイズや限られたデータが存在する場合でも、完全な候補ライブラリを必要とせずに満足な結果が得られる。

Data-driven methods have recently been developed to discover underlying partial differential equations (PDEs) of physical problems. However, for these methods, a complete candidate library of potential terms in a PDE are usually required. To overcome this limitation, we propose a novel framework combining deep learning and genetic algorithm, called DLGA-PDE, for discovering PDEs. In the proposed framework, a deep neural network that is trained with available data of a physical problem is utilized to generate meta-data and calculate derivatives, and the genetic algorithm is then employed to discover the underlying PDE. Owing to the merits of the genetic algorithm, such as mutation and crossover, DLGA-PDE can work with an incomplete candidate library. The proposed DLGA-PDE is tested for discovery of the Korteweg-de Vries (KdV) equation, the Burgers equation, the wave equation, and the Chaffee-Infante equation, respectively, for proof-of-concept. Satisfactory results are obtained without the need for a complete candidate library, even in the presence of noisy and limited data.
翻訳日:2023-01-07 23:26:15 公開日:2020-01-21
# 多ドメイン対話システムのためのドメイン対応対話状態トラッカー

Domain-Aware Dialogue State Tracker for Multi-Domain Dialogue Systems ( http://arxiv.org/abs/2001.07526v1 )

ライセンス: Link先を確認
Vevake Balaraman and Bernardo Magnini(参考訳) タスク指向対話システムでは、対話状態トラッカ(dst)コンポーネントが対話履歴に基づいて対話の状態を予測する責任を負う。 現在のDSTアプローチは、定義済みのドメインオントロジーに依存しており、大規模な会話エージェントの効果的な使用を制限している。 本稿では,この欠点を克服するために,データ駆動型で動的サービススキーマの予測をモデル化した,ドメイン対応対話状態トラッカを提案する。 提案モデルでは、ドメイン情報とスロット情報を用いて、与えられた対話のためのドメイン固有表現とスロット固有表現を抽出し、そのような表現を用いて対応するスロットの値を予測する。 このメカニズムを事前訓練された言語モデル(BERT)と統合することで,本手法は意味関係を効果的に学習することができる。

In task-oriented dialogue systems the dialogue state tracker (DST) component is responsible for predicting the state of the dialogue based on the dialogue history. Current DST approaches rely on a predefined domain ontology, a fact that limits their effective usage for large scale conversational agents, where the DST constantly needs to be interfaced with ever-increasing services and APIs. Focused towards overcoming this drawback, we propose a domain-aware dialogue state tracker, that is completely data-driven and it is modeled to predict for dynamic service schemas. The proposed model utilizes domain and slot information to extract both domain and slot specific representations for a given dialogue, and then uses such representations to predict the values of the corresponding slot. Integrating this mechanism with a pretrained language model (i.e. BERT), our approach can effectively learn semantic relations.
翻訳日:2023-01-07 23:25:55 公開日:2020-01-21
# アンサンブル遺伝的プログラミング

Ensemble Genetic Programming ( http://arxiv.org/abs/2001.07553v1 )

ライセンス: Link先を確認
Nuno M. Rodrigues, Jo\~ao E. Batista, Sara Silva(参考訳) アンサンブル学習は、ランダムフォレストやxgboostといった最先端機械学習手法で使われている強力なパラダイムである。 このような手法の成功に触発されて、我々はEnsemble GPと呼ばれる新しい遺伝的プログラミング手法を考案した。 Ensemble GPのevo-lutionary cycleは、他の遺伝プログラミングシステムと同じ手順を踏襲するが、個体群構造、適合性評価、遺伝的演算子が異なる。 我々は,この手法を二進法分類問題で検証し,より小さなモデルで標準GPよりもはるかに優れた結果を得た。 M3GP や XGBoost のような他の手法は全体としては最適であったが、Ensemble GP は例外なく優れた一般化結果を得ることができ、他の方法が成功しなかった。

Ensemble learning is a powerful paradigm that has been usedin the top state-of-the-art machine learning methods like Random Forestsand XGBoost. Inspired by the success of such methods, we have devel-oped a new Genetic Programming method called Ensemble GP. The evo-lutionary cycle of Ensemble GP follows the same steps as other GeneticProgramming systems, but with differences in the population structure,fitness evaluation and genetic operators. We have tested this method oneight binary classification problems, achieving results significantly betterthan standard GP, with much smaller models. Although other methodslike M3GP and XGBoost were the best overall, Ensemble GP was able toachieve exceptionally good generalization results on a particularly hardproblem where none of the other methods was able to succeed.
翻訳日:2023-01-07 23:19:07 公開日:2020-01-21
# BiLSTMによるインタラクション品質評価の改善と対話政策学習への影響

Improving Interaction Quality Estimation with BiLSTMs and the Impact on Dialogue Policy Learning ( http://arxiv.org/abs/2001.07615v1 )

ライセンス: Link先を確認
Stefan Ultes(参考訳) 統計的対話システムにおける適切な対話行動の学習は,長年にわたって研究の対象となっている。 強化学習に基づくほとんどの作業では,報酬信号のモデル化にタスク成功などの客観的尺度が用いられるが,ユーザの満足度推定に基づく報酬を用いる。 我々は,新しい推定器を提案し,時間的依存関係を暗黙的に学習しながら,従来の推定器よりも優れていることを示す。 さらに,この新たなユーザ満足度推定モデルは,ユーザ満足度推定モデルを1つの領域で訓練し,同様のタスクをカバーする多くの領域に適用するシミュレーション実験に応用する。 このモデルを適用すると,評価満足度,タスク成功率,雑音に対するロバスト性が向上する。

Learning suitable and well-performing dialogue behaviour in statistical spoken dialogue systems has been in the focus of research for many years. While most work which is based on reinforcement learning employs an objective measure like task success for modelling the reward signal, we use a reward based on user satisfaction estimation. We propose a novel estimator and show that it outperforms all previous estimators while learning temporal dependencies implicitly. Furthermore, we apply this novel user satisfaction estimation model live in simulated experiments where the satisfaction estimation model is trained on one domain and applied in many other domains which cover a similar task. We show that applying this model results in higher estimated satisfaction, similar task success rates and a higher robustness to noise.
翻訳日:2023-01-07 23:18:24 公開日:2020-01-21
# ソーシャルメディアにおけるクレームの自動識別と検証を可能にするclef 2020

CheckThat! at CLEF 2020: Enabling the Automatic Identification and Verification of Claims in Social Media ( http://arxiv.org/abs/2001.08546v1 )

ライセンス: Link先を確認
Alberto Barron-Cedeno, Tamer Elsayed, Preslav Nakov, Giovanni Da San Martino, Maram Hasanain, Reem Suwaileh, and Fatima Haouari(参考訳) CheckThatの第3版について説明する。 2020年、CLEF(Cross-Language Evaluation Forum)に参加。 checkthat!は、英語、アラビア語、スペイン語で提供される以前のラボ版から4つの補完的なタスクと関連するタスクを提案する。 タスク1は、twitterストリーム内のどのツイートがファクトチェックに値するかを予測する。 タスク2は、ツイートに投稿されたクレームが事実チェックされたクレームのセットを使って検証できるかどうかを判断する。 タスク3は、ターゲットのツイートのクレームを検証するのに役立つWebページのセットからテキストスニペットを取得するように要求する。 タスク4は、一連のWebページと潜在的に有用なスニペットを使用して、ターゲットのツイートのクレームの正確性を予測する。 最後に、ラボは5番目のタスクを提供し、イングランドの政治討論や演説で行われた主張の正当性を予測する。 完全な評価フレームワークを備えている。 評価は、ランキングタスクの平均平均精度またはランクkの精度、分類タスクのF1を用いて行われる。

We describe the third edition of the CheckThat! Lab, which is part of the 2020 Cross-Language Evaluation Forum (CLEF). CheckThat! proposes four complementary tasks and a related task from previous lab editions, offered in English, Arabic, and Spanish. Task 1 asks to predict which tweets in a Twitter stream are worth fact-checking. Task 2 asks to determine whether a claim posted in a tweet can be verified using a set of previously fact-checked claims. Task 3 asks to retrieve text snippets from a given set of Web pages that would be useful for verifying a target tweet's claim. Task 4 asks to predict the veracity of a target tweet's claim using a set of Web pages and potentially useful snippets in them. Finally, the lab offers a fifth task that asks to predict the check-worthiness of the claims made in English political debates and speeches. CheckThat! features a full evaluation framework. The evaluation is carried out using mean average precision or precision at rank k for ranking tasks, and F1 for classification tasks.
翻訳日:2023-01-07 23:17:53 公開日:2020-01-21
# R2DE:新しい質問のIRTパラメータ推定のためのNLPアプローチ

R2DE: a NLP approach to estimating IRT parameters of newly generated questions ( http://arxiv.org/abs/2001.07569v1 )

ライセンス: Link先を確認
Luca Benedetto, Andrea Cappelli, Roberto Turrin, Paolo Cremonesi(参考訳) 試験の主な目的は、特定の科目において学生の専門性を評価することである。 このような専門知識は、スキルや知識レベルとも呼ばれ、異なる方法で活用することができる(例えば、生徒に成績を割り当てたり、生徒に何らかの支援が必要かどうかを理解するなど)。 同様に、試験に現れる質問は、学生の評価に使用される前に、何らかの方法で評価される必要がある。 質問評価の標準的なアプローチは、主観的(例えば、人間の専門家による評価)か、質問生成のプロセス(例えば、実際の学生との事前試験)に長い遅延をもたらす。 本稿では,新たに生成した複数選択質問のテキストと可能な選択肢のテキストを見て評価できるモデルである R2DE (Regressor for Difficulty and Discrimination Estimation) を紹介する。 特に、項目応答理論で定義されるように、各質問の難易度と識別度を推定することができる。 また,eラーニングプラットフォームから得られる実世界の大規模データセット上で行った大規模実験の結果から,本モデルを用いて新たに作成された質問の初期評価を行い,質問生成時に発生する問題のいくつかを緩和できることを示す。

The main objective of exams consists in performing an assessment of students' expertise on a specific subject. Such expertise, also referred to as skill or knowledge level, can then be leveraged in different ways (e.g., to assign a grade to the students, to understand whether a student might need some support, etc.). Similarly, the questions appearing in the exams have to be assessed in some way before being used to evaluate students. Standard approaches to questions' assessment are either subjective (e.g., assessment by human experts) or introduce a long delay in the process of question generation (e.g., pretesting with real students). In this work we introduce R2DE (which is a Regressor for Difficulty and Discrimination Estimation), a model capable of assessing newly generated multiple-choice questions by looking at the text of the question and the text of the possible choices. In particular, it can estimate the difficulty and the discrimination of each question, as they are defined in Item Response Theory. We also present the results of extensive experiments we carried out on a real world large scale dataset coming from an e-learning platform, showing that our model can be used to perform an initial assessment of newly created questions and ease some of the problems that arise in question generation.
翻訳日:2023-01-07 23:17:33 公開日:2020-01-21
# アルゴリズムフェアネス

Algorithmic Fairness ( http://arxiv.org/abs/2001.09784v1 )

ライセンス: Link先を確認
Dana Pessach and Erez Shmueli(参考訳) 人間の日常生活に関する意思決定は、医療、交通、教育から大学入学、採用、ローンの支給、その他多くの領域における人工知能(ai)アルゴリズムによって制御されている。 彼らは今や私たちの生活の多くの側面に触れているため、正確であるだけでなく客観的で公平なaiアルゴリズムを開発することが重要です。 近年の研究では、アルゴリズムによる意思決定は、意図しない場合でも本質的に不公平になる可能性があることが示されている。 本稿では,aiアルゴリズムを用いたアルゴリズムの公平性を識別,測定,改善する主な概念について概説する。 この論文は、アルゴリズム的偏見と不公平の原因と、公正性の共通定義と尺度について議論することから始まる。 フェアネス・エンハンシングのメカニズムをレビューし、前処理、内処理、後処理のメカニズムに分割する。 次に、メカニズムの包括的な比較を行い、異なるシナリオでどのメカニズムを使うべきかをよりよく理解する。 この論文は、この分野で最も一般的に使われるフェアネス関連データセットについて記述する。 最後に, アルゴリズム的公平性に関する新たな研究分野について概説する。

An increasing number of decisions regarding the daily lives of human beings are being controlled by artificial intelligence (AI) algorithms in spheres ranging from healthcare, transportation, and education to college admissions, recruitment, provision of loans and many more realms. Since they now touch on many aspects of our lives, it is crucial to develop AI algorithms that are not only accurate but also objective and fair. Recent studies have shown that algorithmic decision-making may be inherently prone to unfairness, even when there is no intention for it. This paper presents an overview of the main concepts of identifying, measuring and improving algorithmic fairness when using AI algorithms. The paper begins by discussing the causes of algorithmic bias and unfairness and the common definitions and measures for fairness. Fairness-enhancing mechanisms are then reviewed and divided into pre-process, in-process and post-process mechanisms. A comprehensive comparison of the mechanisms is then conducted, towards a better understanding of which mechanisms should be used in different scenarios. The paper then describes the most commonly used fairness-related datasets in this field. Finally, the paper ends by reviewing several emerging research sub-fields of algorithmic fairness.
翻訳日:2023-01-07 23:16:25 公開日:2020-01-21
# 注記データに制限のある超音波像における乳腺病変の分節化

Breast lesion segmentation in ultrasound images with limited annotated data ( http://arxiv.org/abs/2001.07322v1 )

ライセンス: Link先を確認
Bahareh Behboodi, Mina Amiri, Rupert Brooks, Hassan Rivaz(参考訳) 超音波 (US) は, 低コスト, 安全性, 非侵襲的特徴から, 診断および外科的治療において最もよく用いられる画像モダリティの1つである。 米国の画像セグメンテーションは現在、スペックルノイズがあるため、ユニークな課題である。 手動セグメンテーションにはかなりの努力と時間を要するため、自動セグメンテーションアルゴリズムの開発が注目されている。 畳み込みニューラルネットワークに基づく最近の手法は有望な性能を示しているが、その成功は多数のトレーニングデータの可用性に依存しており、多くのアプリケーションにとって明らかに困難である。 そこで本研究では,シミュレーションされたus画像と自然画像を補助データセットとして使用し,セグメンテーションネットワークを事前学習し,限られたin vivoデータを用いて微調整する手法を提案する。 19個のin vivo画像を用いて,事前学習したネットワークの微調整により,diceスコアがスクラッチから21%向上することを示した。 また,同じ数の自然画像とシミュレーション画像が利用可能であれば,シミュレーションデータの事前学習が望ましいことを示す。

Ultrasound (US) is one of the most commonly used imaging modalities in both diagnosis and surgical interventions due to its low-cost, safety, and non-invasive characteristic. US image segmentation is currently a unique challenge because of the presence of speckle noise. As manual segmentation requires considerable efforts and time, the development of automatic segmentation algorithms has attracted researchers attention. Although recent methodologies based on convolutional neural networks have shown promising performances, their success relies on the availability of a large number of training data, which is prohibitively difficult for many applications. Therefore, in this study we propose the use of simulated US images and natural images as auxiliary datasets in order to pre-train our segmentation network, and then to fine-tune with limited in vivo data. We show that with as little as 19 in vivo images, fine-tuning the pre-trained network improves the dice score by 21% compared to training from scratch. We also demonstrate that if the same number of natural and simulation US images is available, pre-training on simulation data is preferable.
翻訳日:2023-01-07 23:16:11 公開日:2020-01-21