このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20230104となっている論文です。

PDF登録状況(公開日: 20230104)

TitleAuthorsAbstract論文公表日・翻訳日
# 学際研究と技術影響--バイオメディシンからのエビデンス

Interdisciplinary research and technological impact: Evidence from biomedicine ( http://arxiv.org/abs/2006.15383v3 )

ライセンス: Link先を確認
Qing Ke(参考訳) 学際研究(IDR)は、科学的なブレークスルーの重要な源であり、今日の複雑な社会問題への解決策であると考えられている。 優れた創造性や科学的影響、可視性などの学界でのメリットを示唆する実証的な証拠は豊富にあるが、その社会的利益は、当初IDRを促進するために用いられた重要な議論である。 本稿では,特許技術の発展に寄与する社会的な利益の一面を考察し,今後,特許によるidr論文の「優先的技術」としての評価について検討する。 本稿では,23年間に発行されたバイオメディカルペーパーのサンプルを多用し,多様性,バランス,格差という3つの一般的な指標を用いて,論文の学際性の度合いを測定した。 より多くの分野(多様性)を引用する論文や、引用された分野の分布が偶数である論文(バランス)は特許の引用を受けやすいが、論文がより遠くの分野(格差)に引かれた場合、どちらの効果も相殺される。 これらの関連は、異なる引用ウィンドウの長さで一致している。 さらに,特許引用の受取条件,その技術的影響の強度が,特許の引用回数と品質調整回数の両方で測定され,バランスと格差が増していることも確認した。 我々の研究は、学際的な研究と科学的・技術的影響に政策的な意味を持つかもしれない。

Interdisciplinary research (IDR) has been considered as an important source for scientific breakthroughs and as a solution to today's complex societal challenges. While ample empirical evidence has suggested its benefits within the academia such as better creativity and higher scientific impact and visibility, its societal benefits -- a key argument originally used for promoting IDR -- remain relatively unexplored. Here, we study one aspect of societal benefits, that is contributing to the development of patented technologies, and examine how IDR papers are referenced as "prior art" by patents over time. We draw on a large sample of biomedical papers published in 23 years and measure the degree of interdisciplinarity of a paper using three popular indicators, namely variety, balance, and disparity. We find that papers that cites more fields (variety) and whose distributions over those cited fields are more even (balance) are more likely to receive patent citations, but both effects can be offset if papers draw upon more distant fields (disparity). These associations are consistent across different citation-window lengths. We further find that conditional on receiving patent citations, the intensity of their technological impact, as measured as both raw and quality-adjusted number of citing patents, increases with balance and disparity. Our work may have policy implications for interdisciplinary research and scientific and technological impact.
翻訳日:2023-05-12 07:26:11 公開日:2023-01-04
# 単一測定装置を用いた量子コンテキスト性の解明

Revealing quantum contextuality using a single measurement device ( http://arxiv.org/abs/2102.00410v3 )

ライセンス: Link先を確認
Jaskaran Singh and Rajendra Singh Bhati and Arvind(参考訳) 本研究では, 測定非コンテキスト性(MNC)の概念を分析し, 1つの測定装置のみの逐次測定を含む文脈シナリオを特定する。 量子系上で逐次実行される1つの注意深く構築された正の演算子値測度(povm)の結果の統計を非文脈的オントロジモデルでは説明できないことを示す。 測定のコンテキストは、デバイスが使用できるさまざまな構成から生じる。 非文脈的(nc)オンティックモデルから不等式を開発し、kcbs不等式による測定を含む量子状態を構築する。 この装置から得られた統計が我々のNC不平等に反することを示す。 この装置は、任意の $n$-cycle contextity inequality から測定値を取り込むことで一般化することができ、その内、$n = 5$ は kcbs の不等式に対応する。 様々なシナリオの nc と量子境界は、より大きな値 $n$ に対する結果間の関数的関係のみを用いて、より容易に導出できることを示す。 これにより、解析するより単純な文脈的不平等の1つとなる。

In this work we analyse the notion of measurement non-contextuality (MNC) and identify contextual scenarios which involve sequential measurements of only a single measurement device. We show that any non-contextual ontological model fails to explain the statistics of outcomes of a single carefully constructed positive operator valued measure (POVM) executed sequentially on a quantum system. The context of measurement arises from the different configurations in which the device can be used. We develop an inequality from the non-contextual (NC) ontic model, and construct a quantum situation involving measurements from the KCBS inequality. We show that the resultant statistics arising from this device violate our NC inequality. This device can be generalised by incorporating measurements from arbitrary $n$-cycle contextuality inequalities of which $n = 5$ corresponds to the KCBS inequality. We show that the NC and quantum bounds for various scenarios can be derived more easily using only the functional relationships between the outcomes for larger values $n$. This makes it one of the simpler contextual inequalities to analyse.
翻訳日:2023-04-13 04:57:11 公開日:2023-01-04
# フィードバックに基づく量子最適化

Feedback-based quantum optimization ( http://arxiv.org/abs/2103.08619v3 )

ライセンス: Link先を確認
Alicia B. Magann, Kenneth M. Rudinger, Matthew D. Grace, Mohan Sarovar(参考訳) 量子コンピュータは、組合せ最適化のために古典的コンピュータよりも有利になることを期待している。 本稿では,量子回路パラメータに対して量子ビット計測の結果を構成的に割り当てるために,量子最適化のためのフィードバックに基づく戦略を提案する。 この手法により,量子回路の深さと単調に改善する組合せ最適化問題の解が推定されることを示す。 重要なことに、測定に基づくフィードバックは、量子近似最適化アルゴリズム(qaoa)に必要な古典的最適化努力を必要とせず、組合せ最適化問題の近似解を可能にする。 このフィードバックベースのプロトコルを,グラフ分割問題MaxCutの超伝導量子プロセッサ上で実験的に実証し,その性能を更に調査する一連の数値解析結果を示す。

It is hoped that quantum computers will offer advantages over classical computers for combinatorial optimization. Here, we introduce a feedback-based strategy for quantum optimization, where the results of qubit measurements are used to constructively assign values to quantum circuit parameters. We show that this procedure results in an estimate of the combinatorial optimization problem solution that improves monotonically with the depth of the quantum circuit. Importantly, the measurement-based feedback enables approximate solutions to the combinatorial optimization problem without the need for any classical optimization effort, as would be required for the quantum approximate optimization algorithm (QAOA). We experimentally demonstrate this feedback-based protocol on a superconducting quantum processor for the graph-partitioning problem MaxCut, and present a series of numerical analyses that further investigate the protocol's performance.
翻訳日:2023-04-08 01:50:14 公開日:2023-01-04
# リアプノフ制御による量子組合せ最適化戦略

Lyapunov control-inspired strategies for quantum combinatorial optimization ( http://arxiv.org/abs/2108.05945v2 )

ライセンス: Link先を確認
Alicia B. Magann, Kenneth M. Rudinger, Matthew D. Grace, Mohan Sarovar(参考訳) 量子近似最適化アルゴリズム(qaoa)による組合せ最適化問題を解くために量子コンピュータを使うという展望は近年大きな関心を集めている。 しかし、QAOAに関連する重要な制限は、量子回路パラメータの集合を古典的に最適化する必要性である。 この古典的な最適化は、かなりのコストと課題を伴います。 ここでは,古典的最適化を必要としない[magann et al., phys. rev. lett. 19, 250502 (2022)] という,リアプノフ制御に触発された量子最適化戦略の詳細な説明を提供する。 代わりに、これらの戦略は量子回路パラメータに対する値を決定論的に割り当てるために量子ビット測定からのフィードバックを利用しており、組合せ最適化問題解は量子回路深さと単調に改善される。 理想的な実装と測定ノイズの存在の両方において、重み付きおよび非重み付き3つの正則グラフ上でのMaxCutに対するこれらの戦略の有用性を考察した。 また、これらの戦略がQAOAとどのように比較されるか、QAOA最適化をシードして、短期アプリケーションの性能を改善し、量子アニールへの接続を探索する方法についても論じる。

The prospect of using quantum computers to solve combinatorial optimization problems via the quantum approximate optimization algorithm (QAOA) has attracted considerable interest in recent years. However, a key limitation associated with QAOA is the need to classically optimize over a set of quantum circuit parameters. This classical optimization can have significant associated costs and challenges. Here, we provide an expanded description of Lyapunov control-inspired strategies for quantum optimization, as presented in [Magann et al., Phys. Rev. Lett. 129, 250502 (2022)], that do not require any classical optimization effort. Instead, these strategies utilize feedback from qubit measurements to assign values to the quantum circuit parameters in a deterministic manner, such that the combinatorial optimization problem solution improves monotonically with the quantum circuit depth. Numerical analyses are presented that investigate the utility of these strategies towards MaxCut on weighted and unweighted 3-regular graphs, both in ideal implementations and also in the presence of measurement noise. We also discuss how how these strategies compare with QAOA, how they may be used to seed QAOA optimizations in order to improve performance for near-term applications, and explore connections to quantum annealing.
翻訳日:2023-03-18 16:53:38 公開日:2023-01-04
# 移動泥棒問題に対する品質多様性アルゴリズムの利用について

On the Use of Quality Diversity Algorithms for The Traveling Thief Problem ( http://arxiv.org/abs/2112.08627v4 )

ライセンス: Link先を確認
Adel Nikfarjam, Aneta Neumann, and Frank Neumann(参考訳) 実世界の最適化では、いくつかのサブプロブレムが相互作用し、主要な問題を形成するのが一般的である。 サブプロブレムの間には依存関係があり、1つのコンポーネントだけに集中してそのような問題を解決することは不可能である。 旅行泥棒問題〜(TTP)はこのカテゴリーに属し、旅行セールスパーソン問題〜(TSP)とknapsack問題〜(KP)の統合によって形成される。 本稿では,品質多様性~(QD)アプローチを用いて,TSPとKPの相互依存性について検討する。 QDアルゴリズムは、高品質なソリューションを得るだけでなく、振る舞い空間における高性能なソリューションの分布を示す強力なツールを提供する。 我々は、よく知られたTSPとKP探索演算子を用いてMAP-Eliteに基づく進化的アルゴリズムを導入し、TSPとKPのスコアを行動記述子とする。 その後,TTPに適用したQDアプローチの有用性を示す総合的な実験を行った。 まず、TSP/KPの振る舞い空間における高品質なTTPソリューションに関する洞察を提供する。 その後、我々のQDアプローチを用いて、TTPのより良い解を得ることができ、文献におけるベンチマークに使用される多くのTPインスタンスの最もよく知られた解を改善することができることを示す。

In real-world optimisation, it is common to face several sub-problems interacting and forming the main problem. There is an inter-dependency between the sub-problems, making it impossible to solve such a problem by focusing on only one component. The traveling thief problem~(TTP) belongs to this category and is formed by the integration of the traveling salesperson problem~(TSP) and the knapsack problem~(KP). In this paper, we investigate the inter-dependency of the TSP and the KP by means of quality diversity~(QD) approaches. QD algorithms provide a powerful tool not only to obtain high-quality solutions but also to illustrate the distribution of high-performing solutions in the behavioural space. We introduce a MAP-Elite based evolutionary algorithm using well-known TSP and KP search operators, taking the TSP and KP score as the behavioural descriptor. Afterwards, we conduct comprehensive experimental studies that show the usefulness of using the QD approach applied to the TTP. First, we provide insights regarding high-quality TTP solutions in the TSP/KP behavioural space. Afterwards, we show that better solutions for the TTP can be obtained by using our QD approach and it can improve the best-known solution for a number of TTP instances used for benchmarking in the literature.
翻訳日:2023-03-04 09:37:53 公開日:2023-01-04
# 機械学習のためのバイアススケーラブルニアメモリCMOSアナログプロセッサ

Bias-Scalable Near-Memory CMOS Analog Processor for Machine Learning ( http://arxiv.org/abs/2202.05022v3 )

ライセンス: Link先を確認
Pratik Kumar, Ankita Nandi, Shantanu Chakrabartty, Chetan Singh Thakur(参考訳) Bias-scalable analog computingは、異なるパワーパフォーマンス仕様の機械学習(ML)プロセッサを実装する上で魅力的である。 例えば、サーバーワークロード用のML実装はより高速なトレーニングのために高い計算スループットに重点を置いているのに対して、エッジデバイス用のML実装はエネルギー効率のよい推論に重点を置いている。 本稿では,形状ベースアナログコンピューティング(S-AC)と呼ばれるマージン伝搬原理を一般化したバイアス計算可能な近似アナログ演算回路の実装を実演する。 S-ACコアは、以下のいくつかのニアメモリ計算要素を統合している。 (a)非線形活性化機能 (b)内積演算回路及び (c)混合信号圧縮メモリで、その機能を維持しながら、性能やパワーのために拡張することができる。 180nm CMOSプロセスで作製したプロトタイプの計測結果を用いて,演算モジュールの性能がトランジスタのバイアスや温度変化に対して頑健であることを実証した。 本稿では,単純なML回帰課題に対するバイアススケーリング性と計算精度の影響を実証する。

Bias-scalable analog computing is attractive for implementing machine learning (ML) processors with distinct power-performance specifications. For instance, ML implementations for server workloads are focused on higher computational throughput for faster training, whereas ML implementations for edge devices are focused on energy-efficient inference. In this paper, we demonstrate the implementation of bias-scalable approximate analog computing circuits using the generalization of the margin-propagation principle called shape-based analog computing (S-AC). The resulting S-AC core integrates several near-memory compute elements, which include: (a) non-linear activation functions; (b) inner-product compute circuits; and (c) a mixed-signal compressive memory, all of which can be scaled for performance or power while preserving its functionality. Using measured results from prototypes fabricated in a 180nm CMOS process, we demonstrate that the performance of computing modules remains robust to transistor biasing and variations in temperature. In this paper, we also demonstrate the effect of bias-scalability and computational accuracy on a simple ML regression task.
翻訳日:2023-02-26 04:48:26 公開日:2023-01-04
# MnBi2Te4の磁場制御格子熱伝導率

Magnetic field-controlled lattice thermal conductivity in MnBi2Te4 ( http://arxiv.org/abs/2203.08032v2 )

ライセンス: Link先を確認
Dung D. Vu, Ryan A. Nelson, Brandi L. Wooten, Joseph Barker, Joshua E. Goldberger, Joseph P. Heremans(参考訳) フォノンの性質と格子の熱伝導性は一般的に磁場に敏感であるとは理解されていない。 適用磁場を用いてMnBi2Te4を反強磁性 (AFM) , 缶状 (CAFM) および強磁性 (FM) 相で変化させ, 格子熱伝導率を制御し, 正および負の磁場依存性を生じる新しい方法を発見した。 mnbi2te4の平面方向に沿って印加された磁場下での熱伝導率kの磁場依存性を2kから30kに報告した。 kはAFM相の場とともに減少し、CAFM相は飽和し、FM相の場とともに増大する。 エネルギー保存によりマグノン-フォノン散乱過程が許容されるマグノンギャップの場誘起変化について説明する。 また,磁気シーベック係数,ネルンスト係数,熱ホールデータも同様に測定した。 この発見は磁気制御熱スイッチの設計方法を開く可能性がある。

Phonon properties and the lattice thermal conductivity are not generally understood to be sensitive to magnetic fields. Using an applied field to change MnBi2Te4 between antiferromagnetic (AFM), canted (CAFM) and ferromagnetic (FM) phases we discovered a new way to control the lattice thermal conductivity, generating both a positive and a negative magnetic field dependence. We report the field dependence of the thermal conductivity, k, in the in-plane direction under an applied magnetic field along the cross-plane direction in MnBi2Te4 from 2K to 30K. k decreases with field in the AFM phase, saturates in the CAFM phase, and increases with field in the FM phase. We explain this in terms of the field-induced changes of the magnon gap which modifies which magnon-phonon scattering processes are allowed by energy conservation. We also report magneto-Seebeck coefficient, Nernst coefficient and thermal Hall data measured in the same configuration. This finding may open a way to design magnetically controlled heat switches.
翻訳日:2023-02-22 01:12:39 公開日:2023-01-04
# 責任あるAIの実現に向けて

Towards Implementing Responsible AI ( http://arxiv.org/abs/2205.04358v4 )

ライセンス: Link先を確認
Conrad Sanderson, Qinghua Lu, David Douglas, Xiwei Xu, Liming Zhu, Jon Whittle(参考訳) 人工知能(AI)の展開が多くの分野や産業を変えつつあるため、説明責任、信頼性、透明性、説明可能性、競争可能性、プライバシー、公正性など、さまざまな倫理的側面を適切に考慮することなく、AIシステムが決定と勧告を下すことに懸念がある。 これらの懸念を認める多くのAI倫理原則が最近提案されているが、そのような原則はハイレベルであり、倫理的で責任あるAIシステムを開発するための具体的なアドバイスを提供していない。 原則の実行可能性に関する洞察を得るために,我々は,ai実践者のコホートとの半構造化インタビューに関する実証調査を行った。 注目すべき発見は、aiシステムの設計と開発、ソフトウェアエンジニアリングで使われるプロセス適応の4つの側面をカバーする。 a high‐level view (ii)要件工学 (iii)設計及び実施 (iv)展開及び運用

As the deployment of artificial intelligence (AI) is changing many fields and industries, there are concerns about AI systems making decisions and recommendations without adequately considering various ethical aspects, such as accountability, reliability, transparency, explainability, contestability, privacy, and fairness. While many sets of AI ethics principles have been recently proposed that acknowledge these concerns, such principles are high-level and do not provide tangible advice on how to develop ethical and responsible AI systems. To gain insight on the possible implementation of the principles, we conducted an empirical investigation involving semi-structured interviews with a cohort of AI practitioners. The salient findings cover four aspects of AI system design and development, adapting processes used in software engineering: (i) high-level view, (ii) requirements engineering, (iii) design and implementation, (iv) deployment and operation.
翻訳日:2023-02-19 16:46:43 公開日:2023-01-04
# グラフマイニングにおける公平性:調査

Fairness in Graph Mining: A Survey ( http://arxiv.org/abs/2204.09888v2 )

ライセンス: Link先を確認
Yushun Dong, Jing Ma, Song Wang, Chen Chen, Jundong Li(参考訳) グラフマイニングアルゴリズムは、長年にわたり無数の分野で重要な役割を果たしてきた。 しかしながら、様々なグラフ分析タスクで有望な性能を発揮するにもかかわらず、これらのアルゴリズムのほとんどは公平性に配慮していない。 結果として、人間中心の応用で利用される特定の集団に対する差別につながる可能性がある。 近年、アルゴリズムの公正性はグラフベースのアプリケーションで広く研究されている。 独立で同一に分散されたデータに対するアルゴリズム上の公正さとは対照的に、グラフマイニングにおける公正さは排他的背景、分類学、達成技術を持っている。 本調査では,公正なグラフマイニングの文脈下で,既存の文献を包括的かつ最新に紹介する。 具体的には,グラフ上の公平性の概念の新たな分類法を提案する。 さらに,グラフマイニングにおける公平性を促進する既存の手法の整理的な概要を示す。 最後に、この新興研究分野において広く使われているデータセットを要約し、現在の研究課題やオープンな質問に対する洞察を提供し、異種交配のアイデアの奨励とさらなる進歩を目指している。

Graph mining algorithms have been playing a significant role in myriad fields over the years. However, despite their promising performance on various graph analytical tasks, most of these algorithms lack fairness considerations. As a consequence, they could lead to discrimination towards certain populations when exploited in human-centered applications. Recently, algorithmic fairness has been extensively studied in graph-based applications. In contrast to algorithmic fairness on independent and identically distributed (i.i.d.) data, fairness in graph mining has exclusive backgrounds, taxonomies, and fulfilling techniques. In this survey, we provide a comprehensive and up-to-date introduction of existing literature under the context of fair graph mining. Specifically, we propose a novel taxonomy of fairness notions on graphs, which sheds light on their connections and differences. We further present an organized summary of existing techniques that promote fairness in graph mining. Finally, we summarize the widely used datasets in this emerging research field and provide insights on current research challenges and open questions, aiming at encouraging cross-breeding ideas and further advances.
翻訳日:2023-02-19 16:22:15 公開日:2023-01-04
# ai倫理の物語を広める: インディクティブ・アート・ビュー

Broadening AI Ethics Narratives: An Indic Art View ( http://arxiv.org/abs/2204.03789v4 )

ライセンス: Link先を確認
Ajay Divakaran and Aparna Sridhar and Ramya Srinivasan(参考訳) 学際的な視点を取り入れることは、人工知能(AI)倫理の強化に不可欠なステップであると考えられている。 この点において、芸術分野は、研究コミュニティ間の橋渡しとして、様々な歴史的・文化的物語の解明に重要な役割を果たしていると考えられている。 芸術分野とAI倫理の相互作用を調べる研究の多くは、AIシステムのバイアスを表面化するための計算ツールの可能性を探究するデジタルアートワークに関するものである。 本稿では,AI倫理の地平を広げる上で有用な,人工芸術に埋め込まれたユニークな社会文化的視点を明らかにするための補完的方向性について検討する。 音楽、彫刻、絵画、床絵、ダンスなどの多様なインド美術形態の研究者16人のアーティスト、美術学者、研究者による半構造化インタビューを通じて、インド芸術において観察される倫理的抽象化、学習方法、参加的実践が、倫理的aiシステムに関連する側面にどのように光を当てるかを探求する。 インド舞踊システムに関するケーススタディ(すなわち「ナティアシャストラ」)を通じて、AIシステムにおける倫理の強化への潜在的経路を分析する。 倫理的AIアルゴリズムに共感を取り入れることの必要性,(2)倫理的AIシステム設計と開発のためのマルチモーダルデータフォーマットを統合すること,(3)AI倫理を,価値の消滅なしに適応性を促進するための静的な自己完結型フレームワークとしてではなく,動的で多様性があり,累積的かつ共有的なプロセスとして見ること,(4)AI説明可能性を高める一貫した生涯学習の必要性を概説した。

Incorporating interdisciplinary perspectives is seen as an essential step towards enhancing artificial intelligence (AI) ethics. In this regard, the field of arts is perceived to play a key role in elucidating diverse historical and cultural narratives, serving as a bridge across research communities. Most of the works that examine the interplay between the field of arts and AI ethics concern digital artworks, largely exploring the potential of computational tools in being able to surface biases in AI systems. In this paper, we investigate a complementary direction--that of uncovering the unique socio-cultural perspectives embedded in human-made art, which in turn, can be valuable in expanding the horizon of AI ethics. Through semi-structured interviews across sixteen artists, art scholars, and researchers of diverse Indian art forms like music, sculpture, painting, floor drawings, dance, etc., we explore how {\it non-Western} ethical abstractions, methods of learning, and participatory practices observed in Indian arts, one of the most ancient yet perpetual and influential art traditions, can shed light on aspects related to ethical AI systems. Through a case study concerning the Indian dance system (i.e. the {\it `Natyashastra'}), we analyze potential pathways towards enhancing ethics in AI systems. Insights from our study outline the need for (1) incorporating empathy in ethical AI algorithms, (2) integrating multimodal data formats for ethical AI system design and development, (3) viewing AI ethics as a dynamic, diverse, cumulative, and shared process rather than as a static, self-contained framework to facilitate adaptability without annihilation of values (4) consistent life-long learning to enhance AI accountability
翻訳日:2023-02-19 16:11:36 公開日:2023-01-04
# 信頼できる医療AI開発における社会・技術プロセスとしての情報ガバナンス

Information Governance as a Socio-Technical Process in the Development of Trustworthy Healthcare AI ( http://arxiv.org/abs/2301.10007v1 )

ライセンス: Link先を確認
Nigel Rees, Kelly Holding, Mark Sujan(参考訳) 信頼に足る医療人工知能(AI)の展望と人間工学の研究を開発するためには、AIシステムの現実の応用の複雑さと現実を考える必要がある。 これを実現するためには、テクノロジ開発者とデプロイ組織が協力的なパートナーシップを形成する必要がある。 これは医療データへのアクセスを必要としており、救急サービスコールセンターへの通話の音声記録など、潜在的に特定可能なデータも含まれている。 個人機密データの使用を管理するために、情報ガバナンス(IG)プロセスが実施されている。 しかし、ai開発やデプロイ前の形成段階におけるigプロセスのナビゲートは、データ共有の法的根拠が、患者のケアを提供する目的、すなわち、一度システムが稼働するとのみ明確になるため、難しい場合がある。 本稿では,ウェールズの救急車サービスにおいて,病院外の心・心・アレスト認識ソフトウェアの例を用いて,医療aiの保証のためのig管理の経験について述べる。 我々はIGを社会技術プロセスとみなしている。 信頼できる医療AIを開発するためのIGプロセスは、データ共有、データ要求、データ制御の法的基盤に関する対話、交渉、トレードオフを含む情報ガバナンス作業に依存している。 情報ガバナンスの作業は設計ライフサイクルの早い段階で開始され、今後も続くだろう。 これには、関係の確立と構築に加えて、aiテクノロジと安全性保証要件の両方をより深く理解する組織的準備に焦点を当てることも含まれている。

In order to develop trustworthy healthcare artificial intelligence (AI) prospective and ergonomics studies that consider the complexity and reality of real-world applications of AI systems are needed. To achieve this, technology developers and deploying organisations need to form collaborative partnerships. This entails access to healthcare data, which frequently might also include potentially identifiable data such as audio recordings of calls made to an ambulance service call centre. Information Governance (IG) processes have been put in place to govern the use of personal confidential data. However, navigating IG processes in the formative stages of AI development and pre-deployment can be challenging, because the legal basis for data sharing is explicit only for the purpose of delivering patient care, i.e., once a system is put into service. In this paper we describe our experiences of managing IG for the assurance of healthcare AI, using the example of an out-of-hospital-cardiac-arrest recognition software within the context of the Welsh Ambulance Service. We frame IG as a socio-technical process. IG processes for the development of trustworthy healthcare AI rely on information governance work, which entails dialogue, negotiation, and trade-offs around the legal basis for data sharing, data requirements and data control. Information governance work should start early in the design life cycle and will likely continue throughout. This includes a focus on establishing and building relationships, as well as a focus on organisational readiness deeper understanding of both AI technologies as well as their safety assurance requirements.
翻訳日:2023-02-19 13:46:19 公開日:2023-01-04
# 理科教育ゲートウェイを用いたSTEM教育の改善--QUBESプラットフォームを事例として

Using Science Education Gateways to improve undergraduate STEM education: The QUBES Platform as a case study ( http://arxiv.org/abs/2301.01760v1 )

ライセンス: Link先を確認
Sam Donovan and M. Drew LaMar(参考訳) QUBESプラットフォームは「科学教育ゲートウェイ」として構想され、学部STEM教育の革新を加速するために設計された。 技術基盤は、プロフェッショナルリソースへのより公平なアクセスを提供し、真の科学を反映した学習をサポートし、オープンな教育実践を促進するために構築された。 4つのプラットフォームサービス(OER Library Access、Professional Learning、Partner Support、Customizable Workspaces)は、教員のユーザコミュニティの重複をサポートし、複数のエントリポイントを提供し、多様体のユースケースシナリオを可能にする。 プラットフォームの統合性により、さまざまな改革リソースを、スケーラブルで持続可能な方法で収集、キュレート、分散することが可能になります。 我々は、QUBESプラットフォームには、教育と学習に関する奨学金への参加を拡大する能力があり、さらに、改革慣行の導入に対する教員の障壁を下げるのに役立つと信じている。 学部STEM教育におけるサイバーインフラストラクチャーの役割は一般的に不十分であり、さらなる探索が保証される。

The QUBES platform was conceived as a "science education gateway" and designed to accelerate innovation in undergraduate STEM education. The technical infrastructure was purpose built to provide more equitable access to professional resources, support learning that reflects authentic science, and promote open education practices. Four platform services (OER Library Access; Professional Learning; Partner Support; and Customizable Workspaces) support overlapping faculty user communities, provide multiple points of entry, and enable manifold use case scenarios. The integrated nature of the platform makes it possible to collect, curate, and disseminate a diverse array of reform resources in a scalable and sustainable manner. We believe that the QUBES platform has the capacity to broaden participation in scholarship around teaching and learning and, furthermore, that it can help to lower faculty barriers to the adoption of reform practices. The role of cyberinfrastructure in undergraduate STEM education is generally underappreciated and warrants further exploration.
翻訳日:2023-02-19 13:27:24 公開日:2023-01-04
# 企業サイバー攻撃戦略としての火の嵐

Organised Firestorm as strategy for business cyber-attacks ( http://arxiv.org/abs/2301.01518v1 )

ライセンス: Link先を確認
Andrea Russo(参考訳) ほとんどの組織や企業にとって、高い評判を持つことが最優先です。 実際、最適な企業イメージを持つことで、さまざまな顧客やパートナーとの取引関係をより良くすることが可能になる。 しかし、このような評判は構築が難しく、あらゆる種類の商業活動(B2C、B2B、B2B2C、B2G)で破壊しやすい。 顧客へのコミュニケーションプロセス中の誤解、あるいは単に悪いコミュニケーション戦略は、会社全体の災害につながる可能性がある。 これは、ソーシャルネットワーク上の何百万人もの人々の反応によって強調され、ある出来事に対してネガティブに反応した場合、企業イメージにとって非常に有害である可能性がある。 これを暴風雨という。 本稿では,組織に対する防火攻撃の組織化戦略を提案するとともに,攻撃した企業の個人情報を敵がどのように活用できるかを示す。 標準のビジネスセキュリティ手順は、マルチドメイン攻撃に対応するようには設計されていないので、異なる種類の攻撃を実行することで、古典的かつ推奨されたセキュリティ手順をバイパスできる方法を示します。 また、特定のビジネス企業のネットワークを効果的にターゲットとする、別のファイアストーム攻撃も提案します。 最後に,企業に対する火災の悪影響を低減するための防御手順を提案する。

Having a good reputation is paramount for most organisations and companies. In fact, having an optimal corporate image allows them to have better transaction relationships with various customers and partners. However, such reputation is hard to build and easy to destroy for all kind of business commercial activities (B2C, B2B, B2B2C, B2G). A misunderstanding during the communication process to the customers, or just a bad communication strategy, can lead to a disaster for the entire company. This is emphasised by the reaction of millions of people on social networks, which can be very detrimental for the corporate image if they react negatively to a certain event. This is called a firestorm. In this paper, I propose a well-organised strategy for firestorm attacks on organisations, also showing how an adversary can leverage them to obtain private information on the attacked firm. Standard business security procedures are not designed to operate against multi-domain attacks; therefore, I will show how it is possible to bypass the classic and advised security procedures by operating different kinds of attack. I also propose a different firestorm attack, targeting a specific business company network in an efficient way. Finally, I present defensive procedures to reduce the negative effect of firestorms on a company.
翻訳日:2023-02-19 13:26:45 公開日:2023-01-04
# ニューラルネットワークに基づく動的プログラムと進化的多様性最適化を組み合わせたアクティブディレクトリの保存

Defending Active Directory by Combining Neural Network based Dynamic Program and Evolutionary Diversity Optimisation ( http://arxiv.org/abs/2204.03397v3 )

ライセンス: Link先を確認
Diksha Goel, Max Ward, Aneta Neumann, Frank Neumann, Hung Nguyen, Mingyu Guo(参考訳) Active Directory (AD)はWindowsドメインネットワークのデフォルトのセキュリティ管理システムである。 我々は、AD攻撃グラフ上で、1人の攻撃者と1人のディフェンダーの間でスタックルバーグのゲームモデルを研究する。 攻撃者は最初、エントリノードのセットにアクセスする。 攻撃者はエッジを戦略的に探索することでこのセットを拡張することができる。 すべてのエッジは検出率と失敗率を持っています。 攻撃者は発見される前に目的地に到達する確率を最大化する。 ディフェンダーの任務は、攻撃者の成功の可能性を減らすために一定数のエッジをブロックすることである。 問題は #P-hard であり、従って、正確に解くのは難解である。 我々は,攻撃者の問題をニューラルネットワーク(NN)で近似した指数サイズの動的プログラムに変換する。 トレーニングが完了すると、NNはディフェンダーの進化的多様性最適化(EDO)に効率的なフィットネス機能を提供する。 ディフェンダーのソリューションにおける多様性の強調は、さまざまなトレーニングサンプルを提供し、攻撃者をモデリングするためのnnのトレーニング精度を向上させる。 NNトレーニングとEDOの間を行き来します。 実験の結果, R500グラフの場合, 提案したEDOベースの防御は最適防御から1%以下であることがわかった。

Active Directory (AD) is the default security management system for Windows domain networks. We study a Stackelberg game model between one attacker and one defender on an AD attack graph. The attacker initially has access to a set of entry nodes. The attacker can expand this set by strategically exploring edges. Every edge has a detection rate and a failure rate. The attacker aims to maximize their chance of successfully reaching the destination before getting detected. The defender's task is to block a constant number of edges to decrease the attacker's chance of success. We show that the problem is #P-hard and, therefore, intractable to solve exactly. We convert the attacker's problem to an exponential sized Dynamic Program that is approximated by a Neural Network (NN). Once trained, the NN provides an efficient fitness function for the defender's Evolutionary Diversity Optimisation (EDO). The diversity emphasis on the defender's solution provides a diverse set of training samples, which improves the training accuracy of our NN for modelling the attacker. We go back and forth between NN training and EDO. Experimental results show that for R500 graph, our proposed EDO based defense is less than 1% away from the optimal defense.
翻訳日:2023-02-17 23:55:48 公開日:2023-01-04
# 量子スピン鎖における非対称バレンス-ボンド-ソリド状態:オッドと偶数スピンの差

The Asymmetric Valence-Bond-Solid States in Quantum Spin Chains: The Difference Between Odd and Even Spins ( http://arxiv.org/abs/2205.00653v3 )

ライセンス: Link先を確認
Daisuke Maekawa and Hal Tasaki(参考訳) スピン$S$量子反強磁性鎖と整数$S$および半陰極整数$S$の低エネルギー特性の定性的差は、アフレック、ケネディ、リーブ、タサキによって提案された原子価結合図で直感的に理解することができる。 ここでは、spt(symmetry-protected topological)位相の理論の核となる、奇数$s$と偶数$s$の鎖間の定性的な差の、同じように直感的な図式的な説明を展開する。 より正確には、Affleck-Kennedy-Lieb-Tasaki (AKLT)状態と量子スピン鎖における自明な零状態とを連続的に補間する非対称価結合固体(VBS)状態と呼ばれる状態の1パラメータ族を定義する。 非対称vbs状態は、aklt状態を体系的に修正して得られる。 常に指数関数的に減衰する断続相関関数を持ち、短距離ハミルトニアンの一意なガッピング基底状態である。 また、非対称なVBS状態は時間反転を持ち、$\mathbb{Z}_2\times\mathbb{Z}_2$、結合中心の逆対称性は$S=2$であるが、$S=1$ではない。 これは AKLT モデルが自明な SPT 相に属しているという既知の事実と一致する:$S=2$ であり、非自明な SPT 相は$S=1$ である。 このような乱れた状態の家族は、既に知られているが、我々の構成は統一されており、単純な物理的イメージに基づいている。 また、一般的な整数$S$でスピンチェインに拡張し、奇数と偶数を持つモデル間の本質的な違いを直感的に説明する。

The qualitative difference in low-energy properties of spin $S$ quantum antiferromagnetic chains with integer $S$ and half-odd-integer $S$ discovered by Haldane can be intuitively understood in terms of the valence-bond picture proposed by Affleck, Kennedy, Lieb, and Tasaki. Here we develop a similarly intuitive diagrammatic explanation of the qualitative difference between chains with odd $S$ and even $S$, which is at the heart of the theory of symmetry-protected topological (SPT) phases. More precisely, we define one-parameter families of states, which we call the asymmetric valence-bond solid (VBS) states, that continuously interpolate between the Affleck-Kennedy-Lieb-Tasaki (AKLT) state and the trivial zero state in quantum spin chains with $S=1$ and 2. The asymmetric VBS state is obtained by systematically modifying the AKLT state. It always has exponentially decaying truncated correlation functions and is a unique gapped ground state of a short-ranged Hamiltonian. We also observe that the asymmetric VBS state possesses the time-reversal, the $\mathbb{Z}_2\times\mathbb{Z}_2$, and the bond-centered inversion symmetries for $S=2$, but not for $S=1$. This is consistent with the known fact that the AKLT model belongs to the trivial SPT phase if $S=2$ and to a nontrivial SPT phase if $S=1$. Although such interpolating families of disordered states were already known, our construction is unified and is based on a simple physical picture. It also extends to spin chains with general integer $S$ and provides us with an intuitive explanation of the essential difference between models with odd and even spins.
翻訳日:2023-02-14 20:51:19 公開日:2023-01-04
# 量子計算によるH+H2の振動ダイナミクスの衝突S行列

Collisional S-Matrix for the Vibrational Dynamics of H+H2 by Quantum Computing ( http://arxiv.org/abs/2205.14201v2 )

ライセンス: Link先を確認
Yulun Wang and Predrag S. Krstic(参考訳) h2の振動状態とhとの衝突の遷移の遷移のs行列を正確に計算するために、量子回路のアルゴリズムと量子回路のシステムを開発し、そのアルゴリズムを量子回路シミュレータで100evの衝突エネルギーに適用した。 離散化された解離連続体が遷移断面積に与える影響を慎重に検討し、古典的アルゴリズムを用いた時間依存シュロディンガー方程式の解と、文献によるいくつかの結果との比較により、アルゴリズムと衝突系の選択されたパラメータによる結果の精度と収束性を検証する。

An algorithm and a system of quantum circuits is developed and applied to compute accurately the S matrix for the transitions between vibrational states of H2 for collisions with H. The algorithm was applied to 100 eV laboratory collision energy at a quantum circuit simulator. The effects of the discretized dissociative continuum to the transition cross sections are carefully studied and accuracy and convergence of the results with the chosen parameters of the algorithm and the collision system are verified by comparison with a solution of the time-dependent Schrodinger equation using the classical algorithm as well as comparison with a few results from the literature.
翻訳日:2023-02-11 13:43:48 公開日:2023-01-04
# 物理実装性の観点からみた純度と量子絡み合いのノイズ効果

Noise effects on purity and quantum entanglement in terms of physical implementability ( http://arxiv.org/abs/2207.01403v3 )

ライセンス: Link先を確認
Yuchen Guo, Shuo Yang(参考訳) 量子デバイスの不完全操作による量子デコヒーレンスは、ノイズの多い中間スケール量子(NISQ)時代の重要な問題である。 量子情報と量子計算における標準解析は、量子ノイズチャネルのパラメータ化にエラーレートを用いる。 しかし、ノイズチャネルによって誘導されるデコヒーレンス効果と誤り率との間には明確な関係はない。 本研究では,雑音チャネルの非干渉効果を,その逆の物理的実装性によって特徴付けることを提案する。 ノイズチャネル後の状態純度と対数否定性の低下と雑音逆の物理的実装性とを結合する2つの簡潔な不等式を確立し,それぞれ直交ユニタリあるいは製品チャネルとして分解する必要がある。 提案手法は, 2量子ビット雑音モデルを用いて数値的に検証した。 これらの関係はノイズチャネルの絡み合い特性に関する理論的研究に寄与し、量子回路設計の指針を提供すると信じている。

Quantum decoherence due to imperfect manipulation of quantum devices is a key issue in the noisy intermediate-scale quantum (NISQ) era. Standard analyses in quantum information and quantum computation use error rates to parameterize quantum noise channels. However, there is no explicit relation between the decoherence effect induced by a noise channel and its error rate. In this work, we propose to characterize the decoherence effect of a noise channel by the physical implementability of its inverse, which is a universal parameter quantifying the difficulty to simulate the noise inverse with accessible quantum channels. We establish two concise inequalities connecting the decrease of the state purity and logarithmic negativity after a noise channel to the physical implementability of the noise inverse, which is required to be decomposed as mutually orthogonal unitaries or product channels respectively. Our results are numerically demonstrated on several commonly adopted two-qubit noise models. We believe that these relations contribute to the theoretical research on the entanglement properties of noise channels and provide guiding principles for quantum circuit design.
翻訳日:2023-02-06 19:12:28 公開日:2023-01-04
# 生体医用画像再構成:調査

Biomedical Image Reconstruction: A Survey ( http://arxiv.org/abs/2301.11813v1 )

ライセンス: Link先を確認
Samuel Cahyawijaya(参考訳) バイオメディカル画像再構成研究は50年以上にわたって開発され、中央投影やフィルターバック投影といった様々な技術が生まれた。 深層学習技術の発達に伴い、バイオメディカルイメージ再構築分野は、分析的・反復的な手法から深層学習方法への大きなパラダイムシフトを経て、バイオメディカルイメージ再構築のための先進的な深層学習技術に関する科学的議論を進めるために、深層バイオメディカルイメージ再構築に焦点を当てたワークショップ「MLMIR」が導入され、2018年から毎年開催されている。 本研究の目的は, バイオメディカル画像再構成の基礎知識と, バイオメディカル画像再構成の最近の研究動向を, MLMIR の論文に基づいて示すことである。 本研究の目的は, バイオメディカル画像再構成分野の一般理解と, 深層バイオメディカル画像再構成研究の動向を明らかにすることである。

Biomedical image reconstruction research has been developed for more than five decades, giving rise to various techniques such as central and filtered back projection. With the rise of deep learning technology, biomedical image reconstruction field has undergone a massive paradigm shift from analytical and iterative methods to deep learning methods To drive scientific discussion on advanced deep learning techniques for biomedical image reconstruction, a workshop focusing on deep biomedical image reconstruction, MLMIR, is introduced and is being held yearly since 2018. This survey paper is aimed to provide basic knowledge in biomedical image reconstruction and the current research trend in biomedical image reconstruction based on the publications in MLMIR. This survey paper is intended for machine learning researchers to grasp a general understanding of the biomedical image reconstruction field and the current research trend in deep biomedical image reconstruction.
翻訳日:2023-02-05 04:26:42 公開日:2023-01-04
# 1次元一般化スプリットステップ量子ウォークの光学的実現

Optical realization of one-dimensional generalized split-step quantum walks ( http://arxiv.org/abs/2207.12341v2 )

ライセンス: Link先を確認
P. A. Ameen Yasir, Abhaya S. Hegde, C. M. Chandrashekar(参考訳) 量子ウォークは、量子アルゴリズムを構築するためのツール以上のものだ。 これらは多くの複雑な物理過程の量子力学をモデル化しシミュレートするために効果的に使われてきた。 特に、分割ステップ量子ウォークとして知られる離散時間量子ウォークの変種は、進化作用素の位置依存制御に依存するディラックセルオートマトンやトポロジカル絶縁体と密接に関係している。 光子の多自由度操作が容易なため、位置依存コイン(PDC)操作と組み合わせることで、一般化されたスプリットステップウォークのテーブルトップ設定を実現できるスプリットステップ演算子の光学的セットアップを提供する。 また,例えば,電気的量子ウォークの実現,局所化ダイナミクスの制御,時空曲率効果のエミュレートが可能なpdc演算の光学的実装を提案する。 さらに,2ドルのJ$プレート,2つの可変波板,半波長板,光スイッチ,光遅延線を含む,任意の$t$ステップのスプリットステップ量子ウォークを実現するセットアップを提案する。

Quantum walks are more than tools for building quantum algorithms. They have been used effectively to model and simulate quantum dynamics in many complex physical processes. Particularly, a variant of discrete-time quantum walk known as split-step quantum walk is closely related to Dirac cellular automata and topological insulators whose realizations rely on position-dependent control of evolution operators. Owing to the ease of manipulating multiple degrees of freedom of photons, we provide an optical setup of split-step operators which in combination with position-dependent coin (PDC) operation can accomplish a table-top setup of generalized split-step walks. Also, we propose an optical implementation for PDC operation that allows, for instance, to realize electric quantum walks, control localization dynamics, and emulate space-time curvature effects. In addition, we propose a setup to realize {\it any} $t$-step split-step quantum walk involving 2 $J$-plates, 2 variable waveplates, a half-waveplate, an optical switch, and an optical delay line.
翻訳日:2023-02-03 19:38:17 公開日:2023-01-04
# 単層半導体におけるクアドルプロン

The Quadruplon in a Monolayer Semiconductor ( http://arxiv.org/abs/2207.12760v2 )

ライセンス: Link先を確認
Jiacheng Tang, Hao Sun, Qiyao Zhang, Xingcan Dai, Zhen Wang, Cun-Zheng Ning(参考訳) これまでのところ、凝縮物物理学におけるクーパー対、励起子、トリオン、量子色力学におけるダイクォークと中間子など、2つまたは3つの構成粒子を含む複合粒子が実験的に同定されている。 四体既約体は、理論上は四重項、四重項、四重項など様々な物理系で予測されてきたが、これまでは素粒子(CERNの最近のテトラクォークなど)の磁場に限られていた。 本稿では,四体既約物質である四重極の存在を示す最初の実験的な証拠を,モリブデンジテルル化物単層に2つの電子と2つの穴を含む。 光ポンププローブ法を用いて, トリオン, バイエクシトンと異なるスペクトル特性を新たに発見した。 四体Bethe-Salpeter方程式をクラスタ展開法と組み合わせて解くことにより,四体既約クラスタや四重極の観点から,これらのスペクトル特徴を説明できる。 2つの弱い結合した励起子からなる双励起子とは対照的に、四重項は励起子の存在なしに2つの電子と2つの穴からなる。 以上の結果から,ヒッシャート理論の4体構造を実証し,様々な物理系や新しい半導体技術における物質構造の理解に影響を及ぼす可能性が示唆された。

So far, composite particles involving two or three constituent particles have been experimentally identified, such as the Cooper pairs, excitons, and trions in condensed matter physics, or diquarks and mesons in quantum chromodynamics. Although the four-body irreducible entities have long been predicted theoretically in a variety of physical systems alternatively as quadruplons, quadrons, or quartets, the closely related experimental observation so far seems to be restricted to the field of elementary particles (e.g. the recent tetraquark at CERN). In this article, we present the first experimental evidence for the existence of a four-body irreducible entity, the quadruplon, involving two electrons and two holes in a monolayer of Molybdenum Ditelluride. Using the optical pump-probe technique, we discovered a series of new spectral features that are distinct from those of trions and bi-excitons. By solving the four-body Bethe-Salpeter equation in conjunction with the cluster expansion approach, we are able to explain these spectral features in terms of the four-body irreducible cluster or the quadruplons. In contrast to a bi-exciton which consists of two weakly bound excitons, a quadruplon consists of two electrons and two holes without the presence of an exciton. Our results provide experimental evidences of the hitherto theorized four-body entities and thus could impact the understanding of the structure of matter in a wide range of physical systems or new semiconductor technologies.
翻訳日:2023-02-03 17:13:15 公開日:2023-01-04
# 量子ナノフォトニックハードウェアのための三角形炭化ケイ素構造におけるフォトニックバンドギャップの活用

Utilizing photonic band gap in triangular silicon carbide structures for efficient quantum nanophotonic hardware ( http://arxiv.org/abs/2208.02996v4 )

ライセンス: Link先を確認
Pranta Saha, Sridhar Majety, Marina Radulaski(参考訳) 炭化ケイ素は、色中心欠陥の長いスピンコヒーレンスと単一光子放出特性のため、量子情報材料の主要なプラットフォームの一つである。 量子ネットワーク、コンピューティング、センシングにおける炭化ケイ素の応用は、単一の光学モードへのカラーセンター放出の効率的な収集に依存している。 このプラットフォームにおける最近のハードウェア開発は、エミッタ特性を保存し、三角形のデバイスを生産する角度エッチングプロセスに焦点を当てている。 しかし、この幾何学における光の伝播についてはほとんど知られていない。 シリコン炭化物中の効率的な量子ナノフォトニックハードウェアを開発するための指針として,三角形断面を用いた構造中のフォトニックバンドギャップの形成について検討する。 さらに, TEパスフィルタ, TMパスフィルタ, および高反射率フォトニック結晶ミラーの3分野の応用を提案し, 発光の効率的な収集と伝播モード選択に利用することができる。

Silicon carbide is among the leading quantum information material platforms due to the long spin coherence and single-photon emitting properties of its color center defects. Applications of silicon carbide in quantum networking, computing, and sensing rely on the efficient collection of color center emission into a single optical mode. Recent hardware development in this platform has focused on angle-etching processes that preserve emitter properties and produce triangularly shaped devices. However, little is known about the light propagation in this geometry. We explore the formation of photonic band gap in structures with a triangular cross-section, which can be used as a guiding principle in developing efficient quantum nanophotonic hardware in silicon carbide. Furthermore, we propose applications in three areas: the TE-pass filter, the TM-pass filter, and the highly reflective photonic crystal mirror, which can be utilized for efficient collection and propagating mode selection of light emission.
翻訳日:2023-02-02 05:00:03 公開日:2023-01-04
# PENDANTSS: 付加音、トレンド、スパーススパイクを拡散するペナル化ノルム比

PENDANTSS: PEnalized Norm-ratios Disentangling Additive Noise, Trend and Sparse Spikes ( http://arxiv.org/abs/2301.01514v1 )

ライセンス: Link先を確認
Paul Zheng, Emilie Chouzenoux, Laurent Duval(参考訳) denoising, detrending, deconvolution: 通常の修復作業は、伝統的に分離された。 結合された定式化は複雑な不正な逆問題を含む。 PENDANTSSは,スパースピーク様信号の結合トレンド除去とブラインドデコンボリューションのために提案される。 これは、スムーズな傾向とノイズがローパスフィルタリングによって幾らか分離されるという仮説と相似する。 一般化された準ノルム比 soot/spoq スパースペナルティ $\ell_p/\ell_q$ とビーズ三元支援ソース分離アルゴリズムを組み合わせる。 この結果、収束的かつ効率的なツールが実現され、新しい信頼-地域ブロック交流可変メトリック前方-後方アプローチが実現される。 典型的なピーク分析化学信号に適用された場合、同等の手法より優れる。 再現可能なコードが提供される。

Denoising, detrending, deconvolution: usual restoration tasks, traditionally decoupled. Coupled formulations entail complex ill-posed inverse problems. We propose PENDANTSS for joint trend removal and blind deconvolution of sparse peak-like signals. It blends a parsimonious prior with the hypothesis that smooth trend and noise can somewhat be separated by low-pass filtering. We combine the generalized quasi-norm ratio SOOT/SPOQ sparse penalties $\ell_p/\ell_q$ with the BEADS ternary assisted source separation algorithm. This results in a both convergent and efficient tool, with a novel Trust-Region block alternating variable metric forward-backward approach. It outperforms comparable methods, when applied to typically peaked analytical chemistry signals. Reproducible code is provided.
翻訳日:2023-01-29 14:26:35 公開日:2023-01-04
# 音声コンテキストを用いたオブジェクトセグメンテーション

Object Segmentation with Audio Context ( http://arxiv.org/abs/2301.10295v1 )

ライセンス: Link先を確認
Kaihui Zheng, Yuqing Ren, Zixin Shen, Tianxu Qin(参考訳) 視覚オブジェクトは、音響的シグネチャを持ち、音声付きビデオ記録で自然に同期する。 本稿では,ビデオインスタンス分割タスクのマルチモーダル機能集約について検討し,ビデオセグメント化モデルに音声機能を統合することで,音声視覚学習方式を提案する。 本手法は,ビデオフレーム間のリッチなコンテキスト情報を活用する既存のビデオインスタンスセグメンテーション手法に基づいている。 音声と視覚のインスタンスのセグメンテーションを調査する最初の試みであるため、同期ビデオと音声記録を備えた20のボーカルクラスを含む新しいデータセットが収集される。 ビデオとオーディオの両特徴を融合するためにデコーダを組み合わせることで,本モデルでは,ベースモデルに比べて若干改善されている。 さらに, 広範囲なアブレーションを行い, 異なるモジュールの有効性を示すことができた。

Visual objects often have acoustic signatures that are naturally synchronized with them in audio-bearing video recordings. For this project, we explore the multimodal feature aggregation for video instance segmentation task, in which we integrate audio features into our video segmentation model to conduct an audio-visual learning scheme. Our method is based on existing video instance segmentation method which leverages rich contextual information across video frames. Since this is the first attempt to investigate the audio-visual instance segmentation, a novel dataset, including 20 vocal classes with synchronized video and audio recordings, is collected. By utilizing combined decoder to fuse both video and audio features, our model shows a slight improvements compared to the base model. Additionally, we managed to show the effectiveness of different modules by conducting extensive ablations.
翻訳日:2023-01-29 13:21:50 公開日:2023-01-04
# 自然はどのようにして遠距離でのスポーキーな行動を実現するのか?

How Does Nature Accomplish Spooky Action at a Distance? ( http://arxiv.org/abs/2301.10240v1 )

ライセンス: Link先を確認
Mani L. Bhaumik(参考訳) アインシュタインによって「距離におけるスプーキーな作用」として導かれた謎めいた非局所的量子相関は、実験的に証明されている。 量子絡み合いと非局所相関は、ベルの不等式に関するジョン・ベルのエポックな論文の必然的な結果として現れた。 しかし、いくつかの例外的な応用や、量子非局所性の理由を説明する試みにもかかわらず、自然がこの驚くべき現象をいかに達成するかの十分な説明はまだ出ていない。 この驚くべき出来事が起こるためのコジェントメカニズムは、量子力学的に妥当なアインシュタイン・ローゼン橋の言葉で示される。

The enigmatic nonlocal quantum correlation that was famously derided by Einstein as "spooky action at a distance" has now been experimentally demonstrated to be authentic. The quantum entanglement and nonlocal correlations emerged as inevitable consequences of John Bell's epochal paper on Bell's inequality. However, in spite of some extraordinary applications as well as attempts to explain the reason for quantum nonlocality, a satisfactory account of how Nature accomplishes this astounding phenomenon is yet to emerge. A cogent mechanism for the occurrence of this incredible event is presented in terms of a plausible quantum mechanical Einstein-Rosen bridge.
翻訳日:2023-01-29 13:20:47 公開日:2023-01-04
# 疾病Xワクチンの生産とサプライチェーン:人工知能と産業4.0で動作する医療システムのリスク評価

Disease X vaccine production and supply chains: risk assessing healthcare systems operating with artificial intelligence and industry 4.0 ( http://arxiv.org/abs/2301.10234v1 )

ライセンス: Link先を確認
Petar Radanliev, David De Roure(参考訳) ワクチン生産とサプライチェーンボトルネックを解決するための6つのアルゴリズム的解法が提示される。 異なるアルゴリズムソリューションのセットが、疾病Xイベント中のリスクを予測するために提示される。

A set of six algorithmic solutions is presented for resolving vaccine production and supply chain bottlenecks. A different set of algorithmic solutions is presented for forecasting risks during a Disease X event.
翻訳日:2023-01-29 13:20:37 公開日:2023-01-04
# ボヘミア量子力学における量子力学の重力化と波動関数の減少について

On the gravitization of quantum mechanics and wave function reduction in Bohmian quantum mechanics ( http://arxiv.org/abs/2209.00513v2 )

ライセンス: Link先を確認
Faramarz Rahmani, Mehdi Golshani(参考訳) この論文の主なトピックは、ボヘミア因果量子論の枠組みにおける重力誘起波動関数の減少の記述にアインシュタインの同値原理を用いることである。 しかし、この概念は標準的な量子力学のためにペンローズによって導入され、探求されてきたが、ボヘミア量子力学の能力により、より明確な結果が得られる。 この点において、量子世界から古典世界への遷移の臨界質量、波動関数の還元時間およびウンルー温度に対応する温度は、アインシュタインの粒子の量子運動に対する等価原理を適用することで得られる。

The main topic of this paper is using Einstein's equivalence principle in the description of the gravity-induced wave function reduction in the framework of Bohmian causal quantum theory. However, such concept has been introduced and explored by Penrose for the standard quantum mechanics, but the capabilities of Bohmian quantum mechanics makes it possible to get some of results more clearly. In this regard, the critical mass for transition from the quantum world to the classical world, the reduction time of the wave function and the temperature that corresponds to the Unruh temperature will be obtained by applying Einstein's equivalence principle for the quantum motion of particle.
翻訳日:2023-01-28 06:28:56 公開日:2023-01-04
# 超光度観測者の時空における相対性

Relativity of superluminal observers in $1+3$ spacetime ( http://arxiv.org/abs/2209.01836v2 )

ライセンス: Link先を確認
Andrzej Dragan, Kacper D\k{e}bski, Szymon Charzy\'nski, Krzysztof Turzy\'nski, and Artur Ekert(参考訳) 我々は,超高次元慣性観測者を考慮した時空の特殊相対性理論の拡張を開発し,そのような拡張が従来の機械的点状粒子の力学を規定し,場の理論的枠組みを使わざるを得ないことを示す。 したがって、場の理論は拡張特殊相対性理論の直接的な結果と見なすことができる。

We develop an extension of special relativity in $1+3$ dimensional spacetime to account for superluminal inertial observers and show that such an extension rules out the conventional dynamics of mechanical point-like particles and forces one to use a field-theoretic framework. Therefore we show that field theory can be viewed as a direct consequence of extended special relativity.
翻訳日:2023-01-27 20:56:10 公開日:2023-01-04
# トポロジカルデータ解析における量子アドバンテージの定量化

Quantifying Quantum Advantage in Topological Data Analysis ( http://arxiv.org/abs/2209.13581v2 )

ライセンス: Link先を確認
Dominic W. Berry, Yuan Su, Casper Gyurik, Robbie King, Joao Basso, Alexander Del Toro Barba, Abhishek Rajput, Nathan Wiebe, Vedran Dunjko and Ryan Babbush(参考訳) ロイドらは、データセットの位相的特徴を特徴づける方法であるベッチ数を計算するための量子アルゴリズムの可能性を最初に示した。 本稿では,不等式テストに基づくディッケ状態の生成法,カイザー窓を用いたより効率的な振幅推定法,チェビシェフ多項式に基づく固有値プロジェクタの最適実装を含む,縮小スケーリングによる位相データ解析(tda)のための改良量子アルゴリズムを提案し,解析し,最適化する。 我々はフォールトトレラントゲート集合へのアプローチをコンパイルし、トッフォリ複雑性の定数因子を推定する。 解析の結果,乗法誤差近似とベッチ数が漸近的に増大する場合に,超二次量子スピードアップはこの問題に対してのみ可能であることがわかった。 さらに, 指数的に大きな次元とベッチ数を持つことは必要だが, 超ポリノミカル・アドバンテージのためには不十分であることを示す量子TDAアルゴリズムの定式化を提案する。 次に、超多項的利点が達成できる特定の問題例を紹介し分析し、何十億もの toffoli ゲートを持つ量子回路は、古典的に難解なインスタンスを解くことができると主張する。

Lloyd et al. were first to demonstrate the promise of quantum algorithms for computing Betti numbers, a way to characterize topological features of data sets. Here, we propose, analyze, and optimize an improved quantum algorithm for topological data analysis (TDA) with reduced scaling, including a method for preparing Dicke states based on inequality testing, a more efficient amplitude estimation algorithm using Kaiser windows, and an optimal implementation of eigenvalue projectors based on Chebyshev polynomials. We compile our approach to a fault-tolerant gate set and estimate constant factors in the Toffoli complexity. Our analysis reveals that super-quadratic quantum speedups are only possible for this problem when targeting a multiplicative error approximation and the Betti number grows asymptotically. Further, we propose a dequantization of the quantum TDA algorithm that shows that having exponentially large dimension and Betti number are necessary, but insufficient conditions, for super-polynomial advantage. We then introduce and analyze specific problem examples for which super-polynomial advantages may be achieved, and argue that quantum circuits with tens of billions of Toffoli gates can solve seemingly classically intractable instances.
翻訳日:2023-01-25 00:11:15 公開日:2023-01-04
# 高次例外点の階層的構成を再考する

Revisiting the hierarchical construction of higher-order exceptional points ( http://arxiv.org/abs/2210.04459v2 )

ライセンス: Link先を確認
Jan Wiersig(参考訳) 開量子系や波動系を記述する非エルミートハミルトニアンスペクトルの高次の例外点は、特に光学やフォトニクスにおいて様々な潜在的な応用がある。 しかし、実験的な実現は極めて難しい。 最近 q. zhongらです [図: lett. 125, 203602 (2020)] は、同じ順序の例外点を持つ2つのサブシステムの一方向結合が、総称して二階の1つの例外点に導く、堅牢な構成を導入しました。 そこで本研究では,ハミルトニア人の痕跡のない部分の無能性を生かして,異なる方法でこのスキームを調査した。 本手法を一般化し,高次例外点を包含する複合系のスペクトル応答強度に関する簡単な式を導出する。 サブシステムのスペクトル応答強度との関係について考察した。 さらに,非ジェネリック摂動についても検討する。 結果は例で示されています。

Higher-order exceptional points in the spectrum of non-Hermitian Hamiltonians describing open quantum or wave systems have a variety of potential applications in particular in optics and photonics. However, the experimental realization is notoriously difficult. Recently, Q. Zhong et al. [Phys. Rev. Lett. 125, 203602 (2020)] have introduced a robust construction where a unidirectional coupling of two subsystems having exceptional points of the same order leads generically to a single exceptional point of twice the order. Here, we investigate this scheme in a different manner by exploiting the nilpotency of the traceless part of the involved Hamiltonians. We generalize the scheme and derive a simple formula for the spectral response strength of the composite system hosting a higher-order exceptional point. Its relation to the spectral response strengths of the subsystems is discussed. Moreover, we investigate nongeneric perturbations. The results are illustrated with an example.
翻訳日:2023-01-23 01:07:48 公開日:2023-01-04
# フォールトトレラント量子計算の逆問題

A Converse for Fault-tolerant Quantum Computation ( http://arxiv.org/abs/2211.00697v2 )

ライセンス: Link先を確認
Uthirakalyani G and Anuj K. Nayak and Avhishek Chatterjee(参考訳) フォールトトレラントな量子計算の技術が改善を続ける中、次のような質問をするのも自然である。 本稿では,ユニタリ演算子を含む多数の演算クラスに対して$\epsilon$-accurate実装に必要な冗長性の下限を求める。 実際に関係している部分指数深度とサブ線形ゲートサイズの場合、冗長性の境界は既知の下界よりも厳密である。 我々は, 整合制約を満たす有限ブロック長量子通信問題に, フォールトトレラント計算を接続することにより, この境界を求める。 ここで得られる冗長性の下限は、非分解性雑音に対するノイズ閾値の上限を厳密に小さくする。 我々の境界は、ゲートの出力のノイズが非i.i.dである場合に直接延びるが、ゲート間のノイズはi.i.dである。

As techniques for fault-tolerant quantum computation keep improving, it is natural to ask: what is the fundamental lower bound on redundancy? In this paper, we obtain a lower bound on the redundancy required for $\epsilon$-accurate implementation of a large class of operations that includes unitary operators. For the practically relevant case of sub-exponential depth and sub-linear gate size, our bound on redundancy is tighter than the known lower bounds. We obtain this bound by connecting fault-tolerant computation with a set of finite blocklength quantum communication problems whose accuracy requirements satisfy a joint constraint. The lower bound on redundancy obtained here leads to a strictly smaller upper bound on the noise threshold for non-degradable noise. Our bound directly extends to the case where noise at the outputs of a gate are non-i.i.d. but noise across gates are i.i.d.
翻訳日:2023-01-20 19:17:16 公開日:2023-01-04
# 量子の絡み合いのない古典光学で説明されるベルテスト

Comment on: Bell tests explained by classical optics without quantum entanglement ( http://arxiv.org/abs/2211.01068v5 )

ライセンス: Link先を確認
Richard D. Gill(参考訳) 2021年に『物理エッセイ』誌に掲載された論文で、著者のD.L. Mamasは「偏光子と偏光子の電場が偏光子と整列する成分を通して偏光子と相互作用する。この成分は偏光子が回転する角度のコサインとして変化し、ベル試験データで観測されるコサインを説明する。量子力学は不要であり、役に立たない。」と書いている。 ママの言うとおり、この物理モデルでは負のコサインが観察される。 しかし、コサイン曲線の振幅は50%ではなく100%であり、その結果ベル-CHSHの不等式に反することはない。 ママズの物理モデルは古典的な局所隠れ変数モデルである。 この結果はモンテカルロシミュレーションによって示される。

In a paper published in the journal Physics Essays in 2021, the author D.L. Mamas writes "A polarized photon interacts with a polarizer through the component of the photon's electric field which is aligned with the polarizer. This component varies as the cosine of the angle through which the polarizer is rotated, explaining the cosine observed in Bell test data. Quantum mechanics is unnecessary and plays no role". Mamas is right that according to this physical model, one will observe a negative cosine. However, the amplitude of the cosine curve is 50%, not 100%, and it consequently does not violate any Bell-CHSH inequality. Mamas' physical model is a classic local hidden variables model. The result is illustrated with a Monte Carlo simulation.
翻訳日:2023-01-20 16:47:13 公開日:2023-01-04
# 可逆部分代数

Invertible subalgebras ( http://arxiv.org/abs/2211.02086v2 )

ライセンス: Link先を確認
Jeongwan Haah(参考訳) 格子上の局所作用素代数の可逆部分代数を導入する。 可逆部分代数は、すべての局所作用素が可逆部分代数と可換部分代数の要素によって局所的に表現されるように定義される。 二次元格子上では、可逆部分代数は可換ハミルトニアンによるキラル・エノン理論をホストするが、これは任意の局所作用素環上では不可能であると考えられている。 我々は、{\mathsf d$-dimensional invertible subalgebras の安定同値類がテンソル積の下でアーベル群を形成し、すべての$\mathsf d + 1$ dimensional qca modulo の同値とシフトをブレンドする群に同型であることを証明する。 付録において、無限格子上のすべての qca の群上の計量を考え、計量完備が局所ハミルトニアンの時間発展を含むことを証明し、これはほぼ局所性保存である。 我々の計量トポロジーは強いトポロジーよりも厳密である。

We introduce invertible subalgebras of local operator algebras on lattices. An invertible subalgebra is defined to be one such that every local operator can be locally expressed by elements of the inveritible subalgebra and those of the commutant. On a two-dimensional lattice, an invertible subalgebra hosts a chiral anyon theory by a commuting Hamiltonian, which is believed not to be possible on any full local operator algebra. We prove that the stable equivalence classes of $\mathsf d$-dimensional invertible subalgebras form an abelian group under tensor product, isomorphic to the group of all $\mathsf d + 1$ dimensional QCA modulo blending equivalence and shifts. In an appendix, we consider a metric on the group of all QCA on infinite lattices and prove that the metric completion contains the time evolution by local Hamiltonians, which is only approximately locality-preserving. Our metric topology is strictly finer than the strong topology.
翻訳日:2023-01-20 11:35:05 公開日:2023-01-04
# 2つの超伝導人工原子の分散制御における寄生相互作用とマイクロ波クロストークの役割

Role of parasitic interactions and microwave crosstalk in dispersive control of two superconducting artificial atoms ( http://arxiv.org/abs/2211.04182v2 )

ライセンス: Link先を確認
Alan C. Santos(参考訳) 本研究では, 単モードコプレーナー導波路を介して相互作用する2つの超伝導人工原子系における寄生相互作用とマイクロ波クロストークの役割について検討する。 原子の有効動力学の一般的な記述を通して、2レベル近似を超えて、原子選択性(原子に個別に対処する能力)は、システムを制御するために使用される駆動に付随する結果のファサーにのみ依存していることを示す。 次に、このような駆動依存的な選択性の利点を利用して、残留原子-原子相互作用の干渉なしに、コヒーレント集団の反転が原子内でどのように同時に起こるかを記述する。 このシナリオでは、寄生相互作用は高速で高い忠実度制御のための資源として働き、効果的な原子-原子結合(アイドリングポイント)を抑制することができる原子のための新しい周波数のレジームをもたらす。 最後に、寄生的相互作用が存在する場合でも、99.5%以上の忠実度で絡み合う$i$SWAPゲートがどのように実装されているかを示す。 さらに、私たちは、この相互作用の存在は、ゲートのパフォーマンスをスピードアップするのに役立ちます。 この結果から,超伝導人工原子系における「望ましくない」効果の真の役割について,新たな展望が得られた。

In this work we study the role of parasitic interactions and microwave crosstalk in a system of two superconducting artificial atoms interacting via a single-mode coplanar waveguide. Through a general description of the effective dynamics of the atoms, beyond the two-level approximation, we show that the atom selectivity (ability to individually address an atom) is only dependent on the resultant phasor associated to the drives used to control the system. We then exploit the benefits of such a drive-dependent selectivity to describe how the coherent population inversion occurs in the atoms simultaneously, with no interference of residual atom-atom interaction. In this scenario the parasitic interaction works as a resource to fast and high fidelity control, as it gives rise to a new regime of frequencies for the atoms able to suppress effective atom-atom coupling (idling point). To end, we show how an entangling $i$SWAP gate is implemented with fidelity higher than $99\%$, even in presence of parasitic interactions. More than that, we argue that the existence of this interaction can be helpful to speed up the gate performance. Our results open prospects to a new outlook on the real role of such ``undesired" effects in a system of superconducting artificial atoms.
翻訳日:2023-01-19 23:25:26 公開日:2023-01-04
# マジック蒸留プロトコルにおけるcss符号の一般エントロピー制約

General entropic constraints on CSS codes within magic distillation protocols ( http://arxiv.org/abs/2211.07535v2 )

ライセンス: Link先を確認
Rhea Alexander, Si Gvirtz-Chen, Nikolaos Koukoulekidis, David Jennings(参考訳) マジック状態はフォールトトレラント量子コンピューティングへの道のりの基本構成要素である。 cssコードは、マジック蒸留プロトコルの構築において重要な役割を果たす。 以前の研究は、準分配の統計力学によって普遍量子コンピューティングが記述される相空間設定において、奇数次元$d$の量子コンピューティングを魔法でキャストした。 ここでは、このフレームワークを重要な$d=2$ qubitケースに拡張し、従来のモノトーン境界を超える蒸留境界につながる完全なcss保存プロトコルで共通の構造を活用できることを示します。 さらに、CSSコードプロジェクションの場合、他のコードパラメータの関数としてCSSコードの$n$というコード長の新たなカットオフ制約に到達します。 このエントロピー制約は単にデータ処理の不等式からではなく、そのようなプロトコルの確率的表現に明示的に依存している。

Magic states are fundamental building blocks on the road to fault-tolerant quantum computing. CSS codes play a crucial role in the construction of magic distillation protocols. Previous work has cast quantum computing with magic states for odd dimension $d$ within a phase space setting in which universal quantum computing is described by the statistical mechanics of quasi-distributions. Here we extend this framework to the important $d=2$ qubit case and show that we can exploit common structures in completely CSS-preserving protocols that lead to distillation bounds that can out-perform previous monotone bounds. Moreover, in the case of CSS code projections, we arrive at a novel cut-off constraint on the code length $n$ of the CSS code as a function of other code parameters, which implies that for fixed error rate and acceptance probability, one needs only consider CSS codes below a threshold number of qubits. This entropic constraint is not simply from the data-processing inequality but relies explicitly on the stochastic representation of such protocols.
翻訳日:2023-01-18 06:50:39 公開日:2023-01-04
# unbalanced penalization:量子最適化アルゴリズムにおける組合せ問題の不等式制約を符号化する新しいアプローチ

Unbalanced penalization: A new approach to encode inequality constraints of combinatorial problems for quantum optimization algorithms ( http://arxiv.org/abs/2211.13914v2 )

ライセンス: Link先を確認
Alejandro Montanez-Barrera, Dennis Willsch, Alberto Maldonado-Romo, and Kristel Michielsen(参考訳) 二次的非制約バイナリ最適化(QUBO)によって符号化できる種類の組合せ最適化問題を解くことは、量子計算の有望な応用である。 このクラスのいくつかの問題は、旅行セールスマン問題(TSP)、ビン包装問題(BPP)、クナップサック問題(KP)など、特定のコスト関数の符号化を必要とする不等式制約がある。 一般的なアプローチは、コスト関数の不等式制約を表現するためにslack変数を使用することである。 しかし、slack変数の使用は量子デバイスを用いてこれらの問題を解決するのに必要な量子ビット数と演算数を大幅に増加させる。 本稿では,余分なslack変数を必要とせず,不均衡なペナリゼーション関数を用いてquboにおける不等式制約を表現する代替手法を提案する。 この関数は、不等式制約が成立しないときよりも大きいペナルティ化によって特徴づけられる。 我々は,TSP,BPP,KPに対するアプローチを検証した。 これらすべてに対して、原最適化問題の最適解を基底状態コストのハミルトニアンの近傍で符号化することができる。 この新しいアプローチは、量子アニーリングや変分量子アルゴリズムを用いたslack変数アプローチと比較して、リソース数の少ない不等式制約による組合せ問題を解くために使用できる。

Solving combinatorial optimization problems of the kind that can be codified by quadratic unconstrained binary optimization (QUBO) is a promising application of quantum computation. Some problems of this class suitable for practical applications such as the traveling salesman problem (TSP), the bin packing problem (BPP), or the knapsack problem (KP) have inequality constraints that require a particular cost function encoding. The common approach is the use of slack variables to represent the inequality constraints in the cost function. However, the use of slack variables considerably increases the number of qubits and operations required to solve these problems using quantum devices. In this work, we present an alternative method that does not require extra slack variables and consists of using an unbalanced penalization function to represent the inequality constraints in the QUBO. This function is characterized by larger penalization when the inequality constraint is not achieved than when it is. We tested our approach for the TSP, the BPP, and the KP. For all of them, we are able to encode the optimal solution of the original optimization problem in the vicinity of the ground state cost Hamiltonian. This new approach can be used to solve combinatorial problems with inequality constraints with a reduced number of resources compared to the slack variables approach using quantum annealing or variational quantum algorithms.
翻訳日:2023-01-17 20:54:27 公開日:2023-01-04
# スマートファクトリ管理におけるインターネット接続型マルチロボットコーディネートのための量子マルチエージェントアクタ臨界ニューラルネットワーク

Quantum Multi-Agent Actor-Critic Neural Networks for Internet-Connected Multi-Robot Coordination in Smart Factory Management ( http://arxiv.org/abs/2301.04012v1 )

ライセンス: Link先を確認
Won Joon Yun, Jae Pyoung Kim, Soyi Jung, Jae-Hyun Kim, Joongheon Kim(参考訳) 学界と産業の両方における最新の関心分野の1つとして、量子コンピューティングは大きな注目を集めている。 量子コンピューティングにおける様々なトピックのうち、変分量子回路(VQC)は、量子深部強化学習(QRL)を実行する能力で注目されている。 本稿では,qrlからqmarl(quantum multi-agent reinforcement learning, 量子マルチエージェント強化学習)を導入することでさらに実現されるqrlの可能性を検証する。 しかし、この拡張は古典的MARLの非定常性のために単純ではない。 これに対応するために、インターネット接続下での集中トレーニングと分散実行(CTDE)QMARLフレームワークを提案する。 提案アルゴリズムの有効性を示すために,IoT(Internet of Things)ベースのマルチエージェントを備えたスマートファクトリ環境を用いる。 シミュレーションは、提案したQMARLベースの自律型マルチロボット制御と調整が他のフレームワークよりも優れていることを裏付ける。

As one of the latest fields of interest in both academia and industry, quantum computing has garnered significant attention. Among various topics in quantum computing, variational quantum circuits (VQC) have been noticed for their ability to carry out quantum deep reinforcement learning (QRL). This paper verifies the potential of QRL, which will be further realized by implementing quantum multi-agent reinforcement learning (QMARL) from QRL, especially for Internet-connected autonomous multi-robot control and coordination in smart factory applications. However, the extension is not straightforward due to the non-stationarity of classical MARL. To cope with this, the centralized training and decentralized execution (CTDE) QMARL framework is proposed under the Internet connection. A smart factory environment with the Internet of Things (IoT)-based multiple agents is used to show the efficacy of the proposed algorithm. The simulation corroborates that the proposed QMARL-based autonomous multi-robot control and coordination performs better than the other frameworks.
翻訳日:2023-01-15 23:08:45 公開日:2023-01-04
# 二重ペロブスカイト材料の計算帯域ギャップの機械学習予測

Machine-Learning Prediction of the Computed Band Gaps of Double Perovskite Materials ( http://arxiv.org/abs/2301.03372v1 )

ライセンス: Link先を確認
Junfei Zhang, Yueqi Li, and Xinbo Zhou(参考訳) 機能性材料の電子構造の予測は新しい装置の工学に不可欠である。 密度汎関数理論(dft)に基づく従来の電子構造予測法は、高い計算コストだけでなく、交換相関関数の近似による精度も制限されている。 機械学習に基づくサーロゲート法は、これらの制限を回避できる代替手段として、特にこの研究の動機となった固体バンドギャップの予測において、多くの注目を集めている。 本稿では,GLLBSC(Gritsenko, van Leeuwen, van Lenthe, Baerends solid correlation)関数で計算された1306個のバンドギャップのデータセットを用いて,二重ペロブスカイト材料のバンドギャップに対するランダムな森林回帰モデルを構築した。 20個の物理特性のうち, バルク率, 超伝導温度, 陽イオン電子陰性度が最も重要であり, 基礎となる電子構造の物理値と一致している。 トップ10の特徴を用いて、ルート平均二乗誤差0.64evの85.6%のモデル精度が得られる。 この結果は,期待できる機能材料を迅速にスクリーニングするために,機械学習による回帰の可能性を実証するという意味で重要である。

Prediction of the electronic structure of functional materials is essential for the engineering of new devices. Conventional electronic structure prediction methods based on density functional theory (DFT) suffer from not only high computational cost, but also limited accuracy arising from the approximations of the exchange-correlation functional. Surrogate methods based on machine learning have garnered much attention as a viable alternative to bypass these limitations, especially in the prediction of solid-state band gaps, which motivated this research study. Herein, we construct a random forest regression model for band gaps of double perovskite materials, using a dataset of 1306 band gaps computed with the GLLBSC (Gritsenko, van Leeuwen, van Lenthe, and Baerends solid correlation) functional. Among the 20 physical features employed, we find that the bulk modulus, superconductivity temperature, and cation electronegativity exhibit the highest importance scores, consistent with the physics of the underlying electronic structure. Using the top 10 features, a model accuracy of 85.6% with a root mean square error of 0.64 eV is obtained, comparable to previous studies. Our results are significant in the sense that they attest to the potential of machine learning regressions for the rapid screening of promising candidate functional materials.
翻訳日:2023-01-15 22:58:53 公開日:2023-01-04
# 確率的分類を用いた短時間てんかん発作検出のための深層学習

Deep Learning for Short-Latency Epileptic Seizure Detection with Probabilistic Classification ( http://arxiv.org/abs/2301.03465v1 )

ライセンス: Link先を確認
Yankun Xu, Jie Yang, Wenjie Ming, Shuang Wang, and Mohamad Sawan(参考訳) 本稿では,マルチスケール3次元畳み込みニューラルネットワークを用いた,リアルタイム脳波に基づくてんかん発作検出における短レイテンシ獲得を目的とした,新しいディープラーニング(dl)ベースのフレームワークを提案する。 発作検出タスクを、ictal期とinterictal期からの従来の2値分類から、interictal期、ictal期、crosss期からのサンプルの確率的分類に変換する。 発作指向脳波記録からの横断周期を導入し,横断周期からのサンプルにソフトラベルを用いたラベル付け規則を提案し,確率的分類課題を構築する。 サンプルの予測確率を正確に捉えるために,新しい多スケール短時間フーリエ変換特徴抽出法と3次元畳み込みニューラルネットワークアーキテクチャを提案する。 さらに,予測確率を高めるための修正重み付け戦略や,短時間検出遅延を実現するための累積決定ルールを提案する。 chb-mit scalp eeg dataset と swec-ethz intra cranial eeg dataset の2つのデータセットに対して,reft-one-seizure-outクロス検証を実装した。 最終的に、提案アルゴリズムは、横断期間中に検出された99回の発作のうち94回を達成し、平均14.84%の修正予測一致確率(RPIP)誤差、2.3のs検出遅延、CHB-MITデータセットでの0.32/h偽検出率、89回の検出発作のうち84回は16.17%のRPIPエラー、4.7のs検出レイテンシ、0.75/h FDRがSWEC-ETHZデータセット上で達成された。 得られた検出レイテンシは, 前報で報告された最先端結果よりも少なくとも50%高速である。

In this manuscript, we propose a novel deep learning (DL)-based framework intended for obtaining short latency in real-time electroencephalogram-based epileptic seizure detection using multiscale 3D convolutional neural networks. We pioneer converting seizure detection task from traditional binary classification of samples from ictal and interictal periods to probabilistic classification of samples from interictal, ictal, and crossing periods. We introduce a crossing period from seizure-oriented EEG recording and propose a labelling rule using soft-label for samples from the crossing period to build a probabilistic classification task. A novel multiscale short-time Fourier transform feature extraction method and 3D convolution neural network architecture are proposed to accurately capture predictive probabilities of samples. Furthermore, we also propose rectified weighting strategy to enhance predictive probabilities, and accumulative decision-making rule to achieve short detection latency. We implement leave-one-seizure-out cross validation on two prevalent datasets -- CHB-MIT scalp EEG dataset and SWEC-ETHZ intracranial EEG dataset. Eventually, the proposed algorithm achieved 94 out of 99 seizures detected during the crossing period, averaged 14.84% rectified predictive ictal probability (RPIP) errors of crossing samples, 2.3 s detection latency, 0.32/h false detection rate on CHB-MIT dataset, meanwhile 84 out of 89 detected seizures, 16.17% RPIP errors, 4.7 s detection latency, and 0.75/h FDR are achieved on SWEC-ETHZ dataset. The obtained detection latencies are at least 50% faster than state-of-the-art results reported in previous studies.
翻訳日:2023-01-15 22:58:25 公開日:2023-01-04
# KIDS : キネマティクスに基づく睡眠事例研究における活動の検出とセグメンテーション

KIDS: kinematics-based (in)activity detection and segmentation in a sleep case study ( http://arxiv.org/abs/2301.03469v1 )

ライセンス: Link先を確認
Omar Elnaggar, Roselina Arelhi, Frans Coenen, Andrew Hopkinson, Lyndon Mason, Paolo Paoletti(参考訳) 睡眠行動とベッド内運動は、人々の神経生理学的健康に関する豊富な情報を含み、一般的な幸福と生活の質に直接関連している。 標準的な臨床は睡眠アセスメントのためのポリソムノグラフィーに依存しているが、不慣れな環境で実行され、訓練された人員を必要とする。 アクチノグラフィーのようなより侵襲的なセンサー技術は進歩しているが、臨床検証は信頼性と精度に関する懸念を引き起こす。 さらに、この分野には広く受け入れられるアルゴリズムが欠如しており、提案されているアプローチは生の信号や特徴のしきい値からデータ・ハングリーの分類モデルまで、多くは医療スタッフには馴染みがない。 本稿では, カスタムメイドウェアラブルセンサを用いて, 臨床的に有意な関節キネマティクスに基づく客観的(in)アクティビティ検出とセグメンテーションのためのオンラインベイズ確率フレームワークを提案する。 運動時空の直感的な3次元可視化は,次元減少に基づく前処理によって達成され,臨床モニタリングや診断に有用である可能性が示唆された。 提案したフレームワークは, 姿勢変化検出および不活性セグメンテーションタスクにおいて, 99.2\%$F_1$-scoreと0.96ピアソン相関係数を達成した。 この研究は、患者中心の縦型ケアプランに役立つ睡眠中の動作の信頼性の高い家庭ベースの分析の道を開く。

Sleep behaviour and in-bed movements contain rich information on the neurophysiological health of people, and have a direct link to the general well-being and quality of life. Standard clinical practices rely on polysomnography for sleep assessment; however, it is intrusive, performed in unfamiliar environments and requires trained personnel. Progress has been made on less invasive sensor technologies, such as actigraphy, but clinical validation raises concerns over their reliability and precision. Additionally, the field lacks a widely acceptable algorithm, with proposed approaches ranging from raw signal or feature thresholding to data-hungry classification models, many of which are unfamiliar to medical staff. This paper proposes an online Bayesian probabilistic framework for objective (in)activity detection and segmentation based on clinically meaningful joint kinematics, measured by a custom-made wearable sensor. Intuitive three-dimensional visualisations of kinematic timeseries were accomplished through dimension reduction based preprocessing, offering out-of-the-box framework explainability potentially useful for clinical monitoring and diagnosis. The proposed framework attained up to 99.2\% $F_1$-score and 0.96 Pearson's correlation coefficient in, respectively, the posture change detection and inactivity segmentation tasks. The work paves the way for a reliable home-based analysis of movements during sleep which would serve patient-centred longitudinal care plans.
翻訳日:2023-01-15 22:57:48 公開日:2023-01-04
# ハミルトンニューラルネットワークを用いた機械故障分類

Machine Fault Classification using Hamiltonian Neural Networks ( http://arxiv.org/abs/2301.02243v1 )

ライセンス: Link先を確認
Jeremy Shen, Jawad Chowdhury, Sourav Banerjee, Gabriel Terejanu(参考訳) センサ測定から推定される全エネルギーシグネチャに基づいて,回転機械の故障を分類する新しい手法を提案する。 全体的な目標は、ブラックボックスモデルの使用を超えて、メカニカルシステムの振る舞いを制御する追加の物理的制約を取り入れることである。 観測データは、正常および様々な異常状態に対するシステムの保存エネルギーを記述するハミルトンニューラルネットワークの訓練に使用される。 推定総エネルギー関数は、ハミルトニアン・ニューラル・ネットワークの重みの形で、オフ・ザ・棚の分類モデルを用いて故障を判別する新しい特徴ベクトルとして機能する。 実験結果はmafauldaデータベースを用いて得られ、提案モデルは2進分類(正規対異常)に対して0.78$、マルチクラス問題(通常と5ドル異なる異常条件)に対して0.84$の有望領域(auc)を与える。

A new approach is introduced to classify faults in rotating machinery based on the total energy signature estimated from sensor measurements. The overall goal is to go beyond using black-box models and incorporate additional physical constraints that govern the behavior of mechanical systems. Observational data is used to train Hamiltonian neural networks that describe the conserved energy of the system for normal and various abnormal regimes. The estimated total energy function, in the form of the weights of the Hamiltonian neural network, serves as the new feature vector to discriminate between the faults using off-the-shelf classification models. The experimental results are obtained using the MaFaulDa database, where the proposed model yields a promising area under the curve (AUC) of $0.78$ for the binary classification (normal vs abnormal) and $0.84$ for the multi-class problem (normal, and $5$ different abnormal regimes).
翻訳日:2023-01-10 00:25:15 公開日:2023-01-04
# MSCDA: マルチレベルセマンティック誘導コントラストによる小データセットにおける乳房MRI領域適応の改善

MSCDA: Multi-level Semantic-guided Contrast Improves Unsupervised Domain Adaptation for Breast MRI Segmentation in Small Datasets ( http://arxiv.org/abs/2301.02554v1 )

ライセンス: Link先を確認
Sheng Kuang, Henry C. Woodruff, Renee Granzier, Thiemo J.A. van Nijnatten, Marc B.I. Lobbes, Marjolein L. Smidt, Philippe Lambin, Siamak Mehrkanoon(参考訳) 磁気共鳴画像(MRI)における乳房組織セグメンテーションに応用される深層学習(DL)は、ここ10年で注目されているが、異なるベンダー、取得プロトコル、生物学的不均一性から生じるドメインシフトは、臨床実装への道のりにおいて重要な障害であり続けている。 近年,教師なしドメイン適応(UDA)手法は,自己学習と対照的な学習を取り入れることで,この問題を緩和しようとしている。 画像の基本的意味情報を異なるレベルでよりよく活用するために、ドメイン間の特徴表現を整合させるマルチレベルセマンティック誘導コントラストドメイン適応(MSCDA)フレームワークを提案する。 特に、画素間、画素間、中心間および中心間コントラストを組み込んで、画像の意味情報を統合することで、コントラスト損失を拡大する。 我々はカテゴリワイドのクロスドメインサンプリング戦略を用いて、対象画像からアンカーをサンプリングし、ソース画像からサンプルを格納するハイブリッドメモリバンクを構築する。 ソースデータセットには健常者11名による非造影MRI検査が含まれ、ターゲットデータセットには134名の浸潤乳癌患者の造影MRI検査が含まれている。 我々は、ソースT2W画像から動的コントラスト強調(DCE)-T1W画像(T2W-to-T1W)、ソースT1W画像からターゲットT2W画像(T1W-to-T2W)に実験をセットアップした。 提案手法は,T2W-to-T1WおよびT1W-to-T2Wにおいて,89.2\%,84.0\%のDice類似係数(DSC)をそれぞれ達成した。 特に、より小さなソースデータセットで優れたパフォーマンスが達成され、私たちのフレームワークがラベル効率であることを証明します。

Deep learning (DL) applied to breast tissue segmentation in magnetic resonance imaging (MRI) has received increased attention in the last decade, however, the domain shift which arises from different vendors, acquisition protocols, and biological heterogeneity, remains an important but challenging obstacle on the path towards clinical implementation. Recently, unsupervised domain adaptation (UDA) methods have attempted to mitigate this problem by incorporating self-training with contrastive learning. To better exploit the underlying semantic information of the image at different levels, we propose a Multi-level Semantic-guided Contrastive Domain Adaptation (MSCDA) framework to align the feature representation between domains. In particular, we extend the contrastive loss by incorporating pixel-to-pixel, pixel-to-centroid, and centroid-to-centroid contrasts to integrate semantic information of images. We utilize a category-wise cross-domain sampling strategy to sample anchors from target images and build a hybrid memory bank to store samples from source images. Two breast MRI datasets were retrospectively collected: The source dataset contains non-contrast MRI examinations from 11 healthy volunteers and the target dataset contains contrast-enhanced MRI examinations of 134 invasive breast cancer patients. We set up experiments from source T2W image to target dynamic contrast-enhanced (DCE)-T1W image (T2W-to-T1W) and from source T1W image to target T2W image (T1W-to-T2W). The proposed method achieved Dice similarity coefficient (DSC) of 89.2\% and 84.0\% in T2W-to-T1W and T1W-to-T2W, respectively, outperforming state-of-the-art methods. Notably, good performance is still achieved with a smaller source dataset, proving that our framework is label-efficient.
翻訳日:2023-01-10 00:18:02 公開日:2023-01-04
# 量子機構の統合情報の測定

Measuring the integrated information of a quantum mechanism ( http://arxiv.org/abs/2301.02244v1 )

ライセンス: Link先を確認
Larissa Albantakis, Robert Prentner, Ian Durham(参考訳) もともと意識理論として考えられた統合情報理論(iit)は、システムが自身のことを規定する構成的因果情報を特徴付けるための理論的枠組みを提供する。 しかし、意識理論としてのIITが量子力学とマイクロ物理理論として互換性があるかどうかはまだ定かではない。 ここでは、IITの最新の形式を拡張して、有限次元量子システム(例えば量子論理ゲート)へのシステムサブセットのメカニズム統合情報(\varphi$)を評価する。 そこで本研究では,最近開発された固有測度を密度行列の定式化に変換し,量子絡み合いに対応する条件独立の概念を拡張した。 IIT分析の組成特性は、標準情報理論解析では得られない複合量子状態や演算子の内部構造にいくらか光を当てるかもしれない。 最後に、我々の結果は、古典から量子への意識、因果関係、物理学の関連に関する理論的議論を知らせるべきである。

Originally conceived as a theory of consciousness, integrated information theory (IIT) provides a theoretical framework intended to characterize the compositional causal information that a system, in its current state, specifies about itself. However, it remains to be determined whether IIT as a theory of consciousness is compatible with quantum mechanics as a theory of microphysics. Here, we present an extension of IIT's latest formalism to evaluate the mechanism integrated information ($\varphi$) of a system subset to finite-dimensional quantum systems (e.g., quantum logic gates). To that end, we translate a recently developed, unique measure of intrinsic information into a density matrix formulation, and extend the notion of conditional independence to accommodate quantum entanglement. The compositional nature of the IIT analysis might shed some light on the internal structure of composite quantum states and operators that cannot be obtained using standard information-theoretical analysis. Finally, our results should inform theoretical arguments about the link between consciousness, causation, and physics from the classical to the quantum.
翻訳日:2023-01-10 00:17:00 公開日:2023-01-04
# 平均シンク和とスケール不変散乱

Mean Sinc Sums and Scale Invariant Scattering ( http://arxiv.org/abs/2212.13884v2 )

ライセンス: Link先を確認
Thomas Curtright(参考訳) 2つの空間次元におけるスケール不変ポテンシャルからの散乱は、シンク関数を含む新しいアイデンティティのクラスにつながる。

Scattering from a scale invariant potential in two spatial dimensions leads to a class of novel identities involving the sinc function.
翻訳日:2023-01-09 07:05:37 公開日:2023-01-04
# 電子反発積分の評価について

On the Evaluation of the electron repulsion integrals ( http://arxiv.org/abs/2212.13911v3 )

ライセンス: Link先を確認
A. Ba\u{g}c{\i}, Gustavo A. Aucar(参考訳) 非整数主量子数を持つスレーター型軌道上の電子反発積分を考える。 これらの積分は多電子系の非相対論的および相対論的計算に有用である。 超幾何関数を含む。 それらの定義に使用される無限級数の非自明な構造のため、超幾何関数は計算が事実上困難である。 彼らの級数の収束は、パラメータの値に厳密に依存する。 キャンセルやラウンドオフエラーなどの計算問題が発生する。 coulomb ポテンシャル $\left(r_{21}^{-1}\right)$ の期待値に対する hyper$-geometric function から解放された関係は導出される。 これらの関係は新しいものであり、クーロンポテンシャルに対するラプラス展開の2次元的な性質から生じる複雑さが除去されることを示す。 これらの積分はまた、任意のパワーを持つポテンシャルの期待値の初期条件を形成する。 電子反発積分は有限列のパワー関数によって表される。 ここで与えられる電子反発積分の評価手法は多中心積分に適用される。

The electron repulsion integrals over the Slater-type orbitals with non-integer principal quantum numbers are considered. These integrals are useful in both non-relativistic and relativistic calculations of many-electron systems. They involve hyper-geometric functions. Due to the non-trivial structure of infinite series that are used to define them the hyper-geometric functions are practically difficult to compute. Convergence of their series are strictly depends on the values of parameters. Computational issues such as cancellation or round-off error emerge. Relationships free from hyper$-$geometric functions for expectation values of Coulomb potential $\left(r_{21}^{-1}\right)$ are derived. These relationships are new and show that the complication coming from two-range nature of Laplace expansion for the Coulomb potential is removed. These integrals also form an initial condition for expectation values of a potential with arbitrary power. The electron repulsion integrals are expressed by finite series of power functions. The methodology given here for evaluation of electron repulsion integrals are adapted to multi-center integrals.
翻訳日:2023-01-09 03:48:36 公開日:2023-01-04
# 代表選択のための量子インスパイアバイナリ最適化アルゴリズム

A Quantum-Inspired Binary Optimization Algorithm for Representative Selection ( http://arxiv.org/abs/2301.01836v1 )

ライセンス: Link先を確認
Anna G. Hughes, Jack S. Baker, Santosh Kumar Radha(参考訳) 量子コンピューティングの進歩は、量子と量子にインスパイアされたアルゴリズムが市場予測を行い、詐欺を検出し、ポートフォリオを最適化する金融など、新たな分野のアプリケーションに拍車をかけている。 このツールボックスを拡張して、より大規模なデータセットから最も代表的なデータのサブセットを選択する方法であるセレクタアルゴリズムを提案する。 選択されたサブセットは、隣り合うデータポイントに最も近いという2つの要件を同時に満たすデータポイントと、任意のカーネルまたは一般化類似性関数によって正確な距離の概念が与えられるより遠いデータポイントとを含む。 上記の要求を符号化するコスト関数は、量子最適化アルゴリズム(量子アニールを含む)に適した準非拘束バイナリ最適化(QUBO)問題として自然に現れる。 セレクタアルゴリズムには複数の分野の応用があるが、金融において特に有用であり、より広範な資産選択から多様化されたポートフォリオを構築するのに使用できる。 合成データセットを実験した結果,(1)株式のサブセットを用いたnasdaq100指数の概略再構成,(2)暗号通貨のポートフォリオの多様化という,実データを用いたセレクタアルゴリズムの2つのユースケースを示す。 本研究では,d-waveシステムが提供する2つの量子アニーラの性能を比較検討した。

Advancements in quantum computing are fuelling emerging applications across disciplines, including finance, where quantum and quantum-inspired algorithms can now make market predictions, detect fraud, and optimize portfolios. Expanding this toolbox, we propose the selector algorithm: a method for selecting the most representative subset of data from a larger dataset. The selected subset includes data points that simultaneously meet the two requirements of being maximally close to neighboring data points and maximally far from more distant data points where the precise notion of distance is given by any kernel or generalized similarity function. The cost function encoding the above requirements naturally presents itself as a Quadratic Unconstrained Binary Optimization (QUBO) problem, which is well-suited for quantum optimization algorithms - including quantum annealing. While the selector algorithm has applications in multiple areas, it is particularly useful in finance, where it can be used to build a diversified portfolio from a more extensive selection of assets. After experimenting with synthetic datasets, we show two use cases for the selector algorithm with real data: (1) approximately reconstructing the NASDAQ 100 index using a subset of stocks, and (2) diversifying a portfolio of cryptocurrencies. In our analysis of use case (2), we compare the performance of two quantum annealers provided by D-Wave Systems.
翻訳日:2023-01-08 22:33:10 公開日:2023-01-04
# RNAフォールディング、スピングラス、量子回路の変異ロバスト性に関する確率論的遺伝子型フェノタイプマップ

Probabilistic Genotype-Phenotype Maps Reveal Mutational Robustness of RNA Folding, Spin Glasses, and Quantum Circuits ( http://arxiv.org/abs/2301.01847v1 )

ライセンス: Link先を確認
Anna Sappington, Vaibhav Mohanty(参考訳) 遺伝子型表現型(gp)マップの最近の研究では、遺伝子型変異に対する普遍的な表現型的堅牢性が報告されている。 これらの研究の全ては、それぞれの遺伝子型が決定論的に単一の表現型にマッピングするという仮定を単純化する。 本稿では,各遺伝子型が表現型確率ベクトルにマップされる確率的遺伝子型フェノタイプ(PrGP)マップについて,より現実的なロバスト性調査の枠組みとして紹介する。 本研究では,(1)rna折り畳みにおける熱揺らぎ,(2)スピングラス基底状態における外部電界障害,(3)7量子ビットibm量子コンピュータ上で実験的に実現される量子回路における重ね合わせと絡み合いの3つのモデルシステムについて検討した。 いずれの場合も,より頻繁な表現型に対するランダムな予測に対して拡張され,より頻繁な表現型に対するランダムな予測にアプローチする新しい二相性ロバスト性スケーリングが観察される。

Recent studies of genotype-phenotype (GP) maps have reported universally enhanced phenotypic robustness to genotype mutations, a feature essential to evolution. Virtually all of these studies make a simplifying assumption that each genotype maps deterministically to a single phenotype. Here, we introduce probabilistic genotype-phenotype (PrGP) maps, where each genotype maps to a vector of phenotype probabilities, as a more realistic framework for investigating robustness. We study three model systems to show that our generalized framework can handle uncertainty emerging from various physical sources: (1) thermal fluctuation in RNA folding, (2) external field disorder in spin glass ground state finding, and (3) superposition and entanglement in quantum circuits, which are realized experimentally on a 7-qubit IBM quantum computer. In all three cases, we observe a novel biphasic robustness scaling which is enhanced relative to random expectation for more frequent phenotypes and approaches random expectation for less frequent phenotypes.
翻訳日:2023-01-08 22:31:28 公開日:2023-01-04
# パッシブリモートセンシングにおけるマルチパラメータ量子計測による超解像イメージング

Super-Resolution Imaging with Multiparameter Quantum Metrology in Passive Remote Sensing ( http://arxiv.org/abs/2301.01557v1 )

ライセンス: Link先を確認
Emre K\"ose and Daniel Braun(参考訳) 地球表面を観測するsoil moisture and ocean salinity (smos) ミッションのような衛星で使用される受動リモートセンシングのために、マイクロ波領域の遠方nモード干渉計を用いて理論的に超解像イメージングを行った。 原点平面の温度のマルチパラメータ推定の完全な量子力学的解析を行う。 入射モードと最適ユニタリを組み合わせることで、検出モードにおける光子計数に基づく最も有益な測定を可能にし、対称対数微分から束縛された量子クレーア・ラオを温度のパラメータ集合に飽和させることにより、最適検出モードを求める。 解析では,smosの空間分解能と同等のパラメータの空間分解能の10倍小さい3kmの最大ラピエーション推定器を用いて画像再構成を行い,量子エンハンスド超解像を達成した。 さらに、画像の平均温度に対応する温度で、ソース平面上の均一な温度分布に最適化されたユニタリを求める。 対応するユニタリは特定の画像に最適化されていないが、理論上可能な最大測定数の局所的な測定シナリオと比較して超解像を与える。

We study super-resolution imaging theoretically using a distant n-mode interferometer in the microwave regime for passive remote sensing, used e.g., for satellites like the "soil moisture and ocean salinity (SMOS)" mission to observe the surface of the Earth. We give a complete quantum mechanical analysis of multiparameter estimation of the temperatures on the source plane. We find the optimal detection modes by combining incoming modes with an optimized unitary that enables the most informative measurement based on photon counting in the detection modes and saturates the quantum Cram\'er-Rao bound from the symmetric logarithmic derivative for the parameter set of temperatures. In our numerical analysis, we achieved a quantum-enhanced super-resolution by reconstructing an image using the maximum likelihood estimator with a pixel size of 3 km, which is ten times smaller than the spatial resolution of SMOS with comparable parameters. Further, we find the optimized unitary for uniform temperature distribution on the source plane, with the temperatures corresponding to the average temperatures of the image. Even though the corresponding unitary was not optimized for the specific image, it still gives a super-resolution compared to local measurement scenarios for the theoretically possible maximum number of measurements.
翻訳日:2023-01-08 22:27:53 公開日:2023-01-04
# InGaAs/InPアバランシェフォトダイオードの低ノイズ・高速光子計数を可能にする超狭帯域干渉回路

Ultra-narrowband interference circuits enable low-noise and high-rate photon counting for InGaAs/InP avalanche photodiodes ( http://arxiv.org/abs/2301.01570v1 )

ライセンス: Link先を確認
Yuanbin Fan, Tingting Shi, Weijie Ji, Lai Zhou, Yang Ji and Zhiliang Yuan(参考訳) InGaAs/InP単光子アバランシェフォトダイオード(APD)のアフターパルスノイズはキャリアトラップによって引き起こされ、サブナノ秒ゲーティングによるアバランチェ電荷の制限によってうまく抑制できる。 かすかな雪崩の検出には、光子信号を無傷に保ちながらゲートによる静電容量応答を効果的に除去できる電子回路が必要である。 本稿では,雪崩信号に対する歪みを少なくし,最大80dbの静電容量応答を相殺できる超狭帯域干渉回路(unic)の実証を行った。 読み出し回路で2つのunicをカスケードすることにより,1.25ghz正弦波ゲートingas/inp apdsにおいて,検出効率25.3%で,最大700mc/s,0.5%の残脈率を実現できた。 30度cでは,検出効率21.2 %で1 %後脈動を測定した。

Afterpulsing noise in InGaAs/InP single photon avalanche photodiodes (APDs) is caused by carrier trapping and can be suppressed successfully through limiting the avalanche charge via sub-nanosecond gating. Detection of faint avalanches requires an electronic circuit that is able to effectively remove the gate-induced capacitive response while keeping photon signals intact. Here we demonstrate a novel ultra-narrowband interference circuit (UNIC) that can reject the capacitive response by up to 80 dB per stage with little distortion to avalanche signals. Cascading two UNIC's in a readout circuit, we were able to enable high count rate of up to 700 MC/s and low afterpulsing of 0.5 % at a detection efficiency of 25.3 % for 1.25 GHz sinusoidally gated InGaAs/InP APDs. At -30 degree C, we measured 1 % afterpulsing at a detection efficiency of 21.2 %.
翻訳日:2023-01-08 22:27:32 公開日:2023-01-04
# 分散電荷センサとしての伸長量子ドット

An elongated quantum dot as a distributed charge sensor ( http://arxiv.org/abs/2301.01650v1 )

ライセンス: Link先を確認
S. M. Patom\"aki, J. Williams, F. Berritta, C. Laine, M. A. Fogarty, R. C. C. Leon, J. Jussot, S. Kubicek, A. Chatterjee, B. Govoreanu, F. Kuemmeth, J. J. L. Morton and M. F. Gonzalez-Zalba(参考訳) 半導体量子ドットの分離の増加は、ファシリテートゲートルーティングとセンサーと電荷貯水池の統合によるスケーリングの利点をもたらす。 伸長量子ドットはこの目的のためにGaAsヘテロ構造においてスピンスピン相互作用の範囲を拡張するために利用されてきた。 本稿では,2つの量子ドットアレイを細長い量子ドット(長さ340nm,幅50nm)で分離する金属酸化物半導体(MOS)デバイスについて検討する。 我々は、高周波単電子電流を集中素子共振器を接続するリザーバへ測定することにより、細長い量子ドットの電荷遷移をモニターする。 我々はこのドットを単一電子箱として操作し、各配列内の量子ドットの電荷センシングを実現し、距離510nmで分離した。 細長いドットの両端の同時電荷検出は、電荷がその名目の長さにわたって十分に分散しており、シミュレーションされた量子力学的電子密度によって支えられていることを示す。 以上の結果から,単一電子ボックスを多用途なフットプリントで実現し,新規でコンパクトな量子プロセッサレイアウトを実現し,分散電荷センシングと相互結合の可能性を提供する方法が示される。

Increasing the separation between semiconductor quantum dots offers scaling advantages by fa- cilitating gate routing and the integration of sensors and charge reservoirs. Elongated quantum dots have been utilized for this purpose in GaAs heterostructures to extend the range of spin-spin interactions. Here, we study a metal-oxide-semiconductor (MOS) device where two quantum dot arrays are separated by an elongated quantum dot (340 nm long, 50 nm wide). We monitor charge transitions of the elongated quantum dot by measuring radiofrequency single-electron currents to a reservoir to which we connect a lumped-element resonator. We operate the dot as a single electron box to achieve charge sensing of remote quantum dots in each array, separated by a distance of 510 nm. Simultaneous charge detection on both ends of the elongated dot demonstrates that the charge is well distributed across its nominal length, supported by the simulated quantum-mechanical electron density. Our results illustrate how single-electron boxes can be realised with versatile foot- prints that may enable novel and compact quantum processor layouts, offering distributed charge sensing in addition to the possibility of mediated coupling.
翻訳日:2023-01-08 22:26:50 公開日:2023-01-04
# 部分多体局在系における量子傷の塔

Tower of quantum scars in a partially many-body localized system ( http://arxiv.org/abs/2301.01681v1 )

ライセンス: Link先を確認
Michael Iversen, Anne E. B. Nielsen(参考訳) 孤立量子多体系はしばしば固有状態熱化仮説によってよく説明される。 しかし、異なる行動を引き起こすメカニズムがある:多体局在と量子多体傷である。 ここでは,親ハミルトニアンを見つけるための既知の方法を適用することで,傷の塔をホストする障害のあるハミルトニアンを見つける方法を示す。 この手法を用いて,部分局所化と傷跡を含むスピン1/2モデルを構築する。 本研究では,両部交絡エントロピーを数値的に解析することにより,モデルが部分的に局所化されていることを示す。 障害が発生するにつれて、隣接するギャップ比はガウス直交のアンサンブルからポアソン分布に遷移し、エントロピーは体積法則から面積法スケーリングへと変化する。 局所的背景における傷痕の性状を調査し,熱的背景との比較を行った。 強い障害では、スカーサブスペースの内側または外側で初期化された状態は異なる動的挙動を示すが、同様の絡み合いエントロピーを持つ。 局所化は初期状態のスカー再生を安定化し、スカー部分空間内外の両方をサポートすることを実証する。 最後に, 強い障害が, およその傷痕状態の塔を新たに導入することを示す。

Isolated quantum many-body systems are often well-described by the eigenstate thermalization hypothesis. There are, however, mechanisms that cause different behavior: many-body localization and quantum many-body scars. Here, we show how one can find disordered Hamiltonians hosting a tower of scars by adapting a known method for finding parent Hamiltonians. Using this method, we construct a spin-1/2 model which is both partially localized and contains scars. We demonstrate that the model is partially localized by studying numerically the level spacing statistics and bipartite entanglement entropy. As disorder is introduced, the adjacent gap ratio transitions from the Gaussian orthogonal ensemble to the Poisson distribution and the entropy shifts from volume-law to area law scaling. We investigate the properties of scars in a partially localized background and compare with a thermal background. At strong disorder, states initialized inside or outside the scar subspace display different dynamical behavior but have similar entanglement entropy. We demonstrate that localization stabilizes scar revivals of initial states with support both inside and outside the scar subspace. Finally, we show how strong disorder introduces additional towers of approximate scar states.
翻訳日:2023-01-08 22:26:30 公開日:2023-01-04
# 集積回路における分離量子ドットエミッタからのオンチップホン・ウー・マンデル干渉

On-chip Hong-Ou-Mandel interference from separate quantum dot emitters in an integrated circuit ( http://arxiv.org/abs/2301.01706v1 )

ライセンス: Link先を確認
{\L}ukasz Dusanowski, Dominik K\"ock, Christian Schneider and Sven H\"ofling(参考訳) スケーラブルな量子フォトニクス技術は、多くの同一の単一光子源とチップ上のフォトニック回路との低損失統合を必要とする。 比較的複雑な量子フォトニック回路はすでに実証されているが、これまではパラメトリックダウン変換に頼っていた。 したがって、効率性とスケーラビリティは本質的にソースの確率的性質によって制限される。 量子エミッタベースの単一光子源はこの制限を受けないが、単一回路内の複数のエミッタの周波数マッチングは依然として課題である。 本研究では,本研究において,低損失オンチップビームスプリッタを単一モードリッジ導波路を介して接続した2つの周波数整合量子ドット単一光子源を,完全にモノリシックなgaas回路として実装する。 本装置では,エミッタのコヒーレンスによって制限された可視性66%の2光子干渉実験をチップ上で行うことができた。 我々のデバイスはさらにスケールアップされ、完全にスケーラブルな集積量子技術への量子回路の複雑さを増大させる明確な経路を提供する。

Scalable quantum photonic technologies require low-loss integration of many identical single-photon sources with photonic circuitry on a chip. Relatively complex quantum photonic circuits have already been demonstrated; however, sources used so far relied on parametric-down-conversion. Hence, the efficiency and scalability are intrinsically limited by the probabilistic nature of the sources. Quantum emitter-based single-photon sources are free of this limitation, but frequency matching of multiple emitters within a single circuit remains a challenge. In this work, we demonstrate a key component in this regard in the form of a fully monolithic GaAs circuit combing two frequency-matched quantum dot single-photon sources interconnected with a low-loss on-chip beamsplitter connected via single-mode ridge waveguides. This device enabled us to perform a two-photon interference experiment on-chip with visibility reaching 66%, limited by the coherence of the emitters. Our device could be further scaled up, providing a clear path to increase the complexity of quantum circuits toward fully scalable integrated quantum technologies.
翻訳日:2023-01-08 22:26:11 公開日:2023-01-04
# イジング場理論における複合ねじれ場の2点関数

Two-Point Functions of Composite Twist Fields in the Ising Field Theory ( http://arxiv.org/abs/2301.01745v1 )

ライセンス: Link先を確認
Olalla A. Castro-Alvaredo and Michele Mazzoni(参考訳) 一次元の場の量子論における二分的絡み合いのすべての標準測度は、分岐点のツイスト場のコレレーターの言葉で表すことができ、ここでは $\mathcal{T}$ と $\mathcal{T}^\dagger$ で表される。 これらはレプリカ理論における巡回置換対称性と関連し、臨界点で最小の共形次元を持つ対称性場である。 最近では、高次元の他のツイスト場(複合ツイスト場)が対称性分解エントロピーとして知られる新しいエンタングルメントの尺度の研究において重要な役割を果たしていることが示されている。 本稿では、イジング場理論において生じる合成ツイスト場の2点関数の厳密な表現を与える。 そこで我々は,自由理論における標準分岐点ツイスト場のために開発された手法と,大規模貢献に焦点をあてた同2点関数のhorv\'ath と calabrese による既存の計算を拡張した。 合成ツイスト場 $\mathcal{T}_\mu$ とその共役 $\mathcal{T}_\mu^\dagger$ の基底状態2点関数について検討する。 臨界において、この体は、作用素積の$\mathcal{T}$と障害体$\mu$の展開の先頭場として定義される。 我々は、$\log \langle \mathcal{t}_\mu(0) \mathcal{t}^\dagger_\mu(r)\rangle$ の一般式と、その解析的継続から正の実レプリカ数 1 より大きい実数への一般式を求める。 我々は、短い距離で期待される共形次元を正確に再現することを示すことによって、整合性の公式を確認する。

All standard measures of bipartite entanglement in one-dimensional quantum field theories can be expressed in terms of correlators of branch point twist fields, here denoted by $\mathcal{T}$ and $\mathcal{T}^\dagger$. These are symmetry fields associated to cyclic permutation symmetry in a replica theory and having the smallest conformal dimension at the critical point. Recently, other twist fields (composite twist fields), typically of higher dimension, have been shown to play a role in the study of a new measure of entanglement known as the symmetry resolved entanglement entropy. In this paper we give an exact expression for the two-point function of a composite twist field that arises in the Ising field theory. In doing so we extend the techniques originally developed for the standard branch point twist field in free theories as well as an existing computation due to Horv\'ath and Calabrese of the same two-point function which focused on the leading large-distance contribution. We study the ground state two-point function of the composite twist field $\mathcal{T}_\mu$ and its conjugate $\mathcal{T}_\mu^\dagger$. At criticality, this field can be defined as the leading field in the operator product expansion of $\mathcal{T}$ and the disorder field $\mu$. We find a general formula for $\log \langle \mathcal{T}_\mu(0) \mathcal{T}^\dagger_\mu(r)\rangle$ and for (the derivative of) its analytic continuation to positive real replica numbers greater than 1. We check our formula for consistency by showing that at short distances it exactly reproduces the expected conformal dimension
翻訳日:2023-01-08 22:25:53 公開日:2023-01-04
# 非エルミート多体局在の静的およびダイナミクス

Statics and Dynamics of non-Hermitian Many-Body Localization ( http://arxiv.org/abs/2301.01763v1 )

ライセンス: Link先を確認
J\'ozsef M\'ak, M. J. Bhaseen, Arijeet Pal(参考訳) 多体局所化相は初期状態の記憶を保ち、ユニタリダイナミクスを持つ不規則相互作用系に存在することが示されている。 一元性の崩壊による局所的な位相の安定性は、環境との結合を考慮した実験に関係している。 そこで本研究では,非エルミート摂動が多体局在に与える影響について検討する。 非対称ホッピングによってユニタリティーを壊す、相互作用するhatano-nelsonモデルに注目した。 相互作用強度と非ハーミティシティの関数として,中間スペクトル固有状態の位相図を探索する。 単粒子の場合とは対照的に,この発見は局所化体制に対する2段階のアプローチと一致している。 また,初期密度波を起点とする粒子不均衡のダイナミクスについても検討し,複雑な固有値を持つ不規則化に着目した。 局所化相の定常状態に到達する時間は、時間スケールのより広い分布を示すエルゴード相とは対照的に、極端固有値の逆の周囲にクラスターされる。 本研究は, 乱れたオープンシステムにおける新しい動的機構の可能性を示している。

Many-body localized phases retain memory of their initial conditions and have been shown to exist in disordered interacting systems with unitary dynamics. The stability of the localized phase due to the breakdown of unitarity is of relevance to experiment when coupling to the environment is taken into account. Motivated by this, we investigate the impact of non-Hermitian perturbations on many-body localization. We focus on the interacting Hatano-Nelson model which breaks unitarity via asymmetric hopping. We explore the phase diagram for the mid-spectrum eigenstates as a function of the interaction strength and the non-Hermiticity. In contrast to the single-particle case, our findings are consistent with a two-step approach to the localized regime. We also study the dynamics of the particle imbalance starting from an initial density wave, focusing on disorder realizations with complex eigenvalues. The time to reach the steady state in the localized phase is clustered around the inverse of the extremal eigenvalue, in contrast to the ergodic phase which shows a broader distribution of timescales. Our findings suggest the possibility of novel dynamical regimes in disordered open systems.
翻訳日:2023-01-08 22:25:18 公開日:2023-01-04
# 直交行列上の二次プログラムに対する量子緩和

Quantum relaxation for quadratic programs over orthogonal matrices ( http://arxiv.org/abs/2301.01778v1 )

ライセンス: Link先を確認
Andrew Zhao, Nicholas C. Rubin(参考訳) 特別な)直交群上の二次プログラミングは、群同期、点集合の登録、同時ローカライゼーションとマッピングといった幅広い最適化問題を含んでいる。 そのような問題は、二項決定変数の代わりに直交行列を最適化する二次組合せ最適化の自然な一般化である小さな非可換グロタンディーク問題(LNCG)の例である。 本研究では、直交群上のこのクラス LNCG 問題の量子ハミルトニアンへの埋め込みを確立する。 この埋め込みは直交行列をその二重被覆(ピン群とスピン群)要素で同定し、量子状態として表す。 我々はこの構成を自由フェルミオンの理論に結び付け、この問題の二次性に起因する2体相互作用フェルミオンモデルとして導出した LNCG ハミルトニアンを物理的に解釈する。 このハミルトン状態の決定は、半定値プログラミングによる問題の古典的緩和に類似した、元の問題に対する外的近似を与える。 特殊直交群を最適化するとき、我々の量子緩和は自然に回転行列の凸殻に基づくより強力な制約に従う。 この凸ハル表現の古典的大きさは行列次元において指数関数的であり、量子表現は線形数の量子ビットしか必要としない。 最後に、緩和された解を実現可能な空間に投影するために、量子状態の適切な測定から直交行列を返す丸めの手続きを用いる。 数値実験を通じて、この量子緩和が高品質な近似を生み出すことを示す。

Quadratic programming over the (special) orthogonal group encompasses a broad class of optimization problems such as group synchronization, point-set registration, and simultaneous localization and mapping. Such problems are instances of the little noncommutative Grothendieck problem (LNCG), a natural generalization of quadratic combinatorial optimization where, instead of binary decision variables, one optimizes over orthogonal matrices. In this work, we establish an embedding of this class of LNCG problems over the orthogonal group onto a quantum Hamiltonian. This embedding is accomplished by identifying orthogonal matrices with their double cover (Pin and Spin group) elements, which we represent as quantum states. We connect this construction to the theory of free fermions, which provides a physical interpretation of the derived LNCG Hamiltonian as a two-body interacting-fermion model due to the quadratic nature of the problem. Determining extremal states of this Hamiltonian provides an outer approximation to the original problem, analogous to classical relaxations of the problem via semidefinite programming. When optimizing over the special orthogonal group, our quantum relaxation naturally obeys additional, powerful constraints based on the convex hull of rotation matrices. The classical size of this convex-hull representation is exponential in matrix dimension, whereas the quantum representation requires only a linear number of qubits. Finally, to project the relaxed solution into the feasible space, we employ rounding procedures which return orthogonal matrices from appropriate measurements of the quantum state. Through numerical experiments we provide evidence that this quantum relaxation can produce high-quality approximations.
翻訳日:2023-01-08 22:25:03 公開日:2023-01-04
# 絡み合いから運動の準局所積分を計測する

Measuring out quasi-local integrals of motion from entanglement ( http://arxiv.org/abs/2301.01787v1 )

ライセンス: Link先を確認
B. Lu, C. Bertoni, S. J. Thomson, J. Eisert(参考訳) 運動の準局所積分は、相互作用と障害が結合する興味深い現象である多体局所化の現代の理解を支える重要な概念である。 それらを計算する数値的な方法がいくつか存在するにもかかわらず、多くの性質の現象論の多くがそれらから導出できるという観測の光に驚くことに、実際の量子シミュレーションにおいてそれらの側面を直接測定する方法は明らかではない。 本研究では,アンダーソンを多体局所化と非平衡ダイナミクスを区別できる空間分解型エンタングルメントプローブに基づいて,そのような準局所的運動積分の実空間特性を抽出する手法を提案する。 これらの知見を新たな厳密な絡み合い境界で補完し,テンソルネットワークを用いて関連する量を計算する。 この絡み合いは、実験で測定できる、明確に定義された長さのスケールを生み出すことを実証する。

Quasi-local integrals of motion are a key concept underpinning the modern understanding of many-body localisation, an intriguing phenomenon in which interactions and disorder come together. Despite the existence of several numerical ways to compute them - and astoundingly in the light of the observation that much of the phenomenology of many properties can be derived from them - it is not obvious how to directly measure aspects of them in real quantum simulations; in fact, the smoking gun of their experimental observation is arguably still missing. In this work, we propose a way to extract the real-space properties of such quasi-local integrals of motion based on a spatially-resolved entanglement probe able to distinguish Anderson from many-body localisation from non-equilibrium dynamics. We complement these findings with a new rigorous entanglement bound and compute the relevant quantities using tensor networks. We demonstrate that the entanglement gives rise to a well-defined length scale that can be measured in experiments.
翻訳日:2023-01-08 22:24:41 公開日:2023-01-04
# 量子化されたカオス位相空間の分解に向けて:雑音を伴う力学の相互作用

Towards the resolution of a quantized chaotic phase space: The interplay of dynamics with noise ( http://arxiv.org/abs/2301.02165v1 )

ライセンス: Link先を確認
Domenico Lippolis, Akira Shudo(参考訳) 開放系の量子力学と弱雑音による古典系のメソスコピックな記述の形式的および物理的類似性について概説する。 我々の関心の主な道具は散逸的ウィグナー方程式であり、適切な時間スケールに対して古典的対流と拡散を記述するフォッカー・プランク方程式と類似する。 この対応は原則として、オープンシステムの量子化された状態空間に対してプランクスケール以外の有限分解を推測することができる。 ノイズの多いホップサイクルとVan der Pol発振器を持つ量子確率並列の代表的な例を示す。

We outline formal and physical similarities between the quantum dynamics of open systems, and the mesoscopic description of classical systems affected by weak noise. The main tool of our interest is the dissipative Wigner equation, that, for suitable timescales, becomes analogous to the Fokker-Planck equation describing classical advection and diffusion. This correspondence allows in principle to surmise a a finite resolution, other than the Planck scale, for the quantized state space of the open system, particularly meaningful when the latter underlies chaotic classical dynamics. We provide representative examples of the quantum-stochastic parallel with noisy Hopf cycles and Van der Pol oscillators.
翻訳日:2023-01-08 22:18:38 公開日:2023-01-04
# 開量子系におけるpoincar\e対称性による還元ダイナミクス

Reduced dynamics with Poincar\'e symmetry in open quantum system ( http://arxiv.org/abs/2301.01451v1 )

ライセンス: Link先を確認
Akira Matsumura(参考訳) 我々は、環境に結合した開量子系の還元ダイナミクスがポアンカルの対称性をいかに認めるかを考える。 減少ダイナミクスは、全ダイナミクスから環境をトレースすることによって与えられる動的マップによって記述される。 共変写像の概念を導入し、Poincar\'e 群の下で対称な動的写像を研究する。 poincar\'e 群の表現理論に基づいて、ポインカーの対称性を持つ力学写像を与える体系的な方法を開発した。 このようにして、有限スピンを持つ大粒子と有限スピンを持つ無質量粒子と非零運動量を持つ無質量粒子の動的写像を導出する。 導出写像は、そのエネルギーが保存されたときに粒子のユニタリ進化を与える。 また,粒子の重ね合わせ状態が混合状態になるとき,粒子の動的写像はポアンカルの対称性を持たないことがわかった。

We consider how the reduced dynamics of an open quantum system coupled to an environment admits the Poincar\'e symmetry. The reduced dynamics is described by a dynamical map, which is given by tracing out the environment from the total dynamics. Introducing the notion of covariant map, we investigate the dynamical map which is symmetric under the Poincar\'e group. Based on the representation theory of the Poincar\'e group, we develop a systematic way to give the dynamical map with the Poincar\'e symmetry. Using this way, we derive the dynamical map for a massive particle with a finite spin and a massless particle with a finite spin and a nonzero momentum. We show that the derived map gives the unitary evolution of a particle when its energy is conserved. We also find that the dynamical map for a particle does not have the Poincar\'e symmetry when the superposition state of the particle decoheres into a mixed state.
翻訳日:2023-01-08 22:16:22 公開日:2023-01-04
# 平面ライドバーグ構造の機能完全性

Functional completeness of planar Rydberg structures ( http://arxiv.org/abs/2301.01508v1 )

ライセンス: Link先を確認
Simon Stastny, Hans Peter B\"uchler, Nicolai Lang(参考訳) 局所的制約によって特徴づけられる顕微鏡モデルの低エネルギーセクターとして特徴づけられるヒルベルト空間の構築は、長距離絡みと創発ゲージ場を持つ幅広い量子相の実現に向けた重要なステップである。 基底状態多様体は、積基底において局所的な制約によって特徴づけられる任意のヒルベルト空間を実現することができる。 本稿では,これらの制約を実装するために,既定最小限の論理プリミティブセットをビルディングブロックとして導入する。 例として、曲面コードとフィボナッチ・エノンモデルに基づく文字列-ネットヒルベルト空間の格子実現を示す。 平面Rydberg構造体の幾何学的ロバスト性を高めるための最適化について論じる。

The construction of Hilbert spaces that are characterized by local constraints as the low-energy sectors of microscopic models is an important step towards the realization of a wide range of quantum phases with long-range entanglement and emergent gauge fields. Here we show that planar structures of trapped atoms in the Rydberg blockade regime are functionally complete: Their ground state manifold can realize any Hilbert space that can be characterized by local constraints in the product basis. We introduce a versatile framework, together with a set of provably minimal logic primitives as building blocks, to implement these constraints. As examples, we present lattice realizations of the string-net Hilbert spaces that underlie the surface code and the Fibonacci anyon model. We discuss possible optimizations of planar Rydberg structures to increase their geometrical robustness.
翻訳日:2023-01-08 22:16:00 公開日:2023-01-04
# 量子コンピュータへのブートストラップ埋め込み

Bootstrap Embedding on a Quantum Computer ( http://arxiv.org/abs/2301.01457v1 )

ライセンス: Link先を確認
Yuan Liu, Oinam R. Meitei, Zachary E. Chin, Arkopal Dutt, Max Tao, Troy Van Voorhis, Isaac L. Chuang(参考訳) 量子コンピュータの実装に適するように分子ブートストラップ埋め込みを拡張した。 これにより、全体システムのフラグメントを管理する複合ラグランジアンに対する最適化問題として、大きな分子の電子構造問題の解法が実現され、フラグメント解は量子コンピュータの能力を利用することができる。 量子SWAPテストや量子振幅増幅を含む最先端の量子サブルーチンを用いることで、古典的アルゴリズムよりも2次的なスピードアップが原理的に得られることを示す。 量子計算の活用により、アルゴリズムは1-rdmに制限されるのではなく、フラグメント境界の完全な密度行列と -- 計算コストを少しでも増やすことができる。 現在の量子コンピュータは小さいが、量子ブートストラップの埋め込みは量子フラグメントマッチングを通じてそのような小さなマシンを利用するための潜在的に一般化可能な戦略を提供する。

We extend molecular bootstrap embedding to make it appropriate for implementation on a quantum computer. This enables solution of the electronic structure problem of a large molecule as an optimization problem for a composite Lagrangian governing fragments of the total system, in such a way that fragment solutions can harness the capabilities of quantum computers. By employing state-of-art quantum subroutines including the quantum SWAP test and quantum amplitude amplification, we show how a quadratic speedup can be obtained over the classical algorithm, in principle. Utilization of quantum computation also allows the algorithm to match -- at little additional computational cost -- full density matrices at fragment boundaries, instead of being limited to 1-RDMs. Current quantum computers are small, but quantum bootstrap embedding provides a potentially generalizable strategy for harnessing such small machines through quantum fragment matching.
翻訳日:2023-01-08 22:09:32 公開日:2023-01-04
# 1つの$\lambda$-type atomにおける単一光子ストレージの限界

Limits of single-photon storage in a single $\Lambda$-type atom ( http://arxiv.org/abs/2301.01559v1 )

ライセンス: Link先を確認
Zhi-Lei Zhang and Li-Ping Yang(参考訳) 理論上は、1つの$\lambda$型原子における単一光子ストレージの限界、特にストレージ効率とストレージ速度のトレードオフを調査した。 制御フィールドは、効率をあまり低下させることなく、保存プロセスを加速するために利用することができる。 保存速度は, 関連する励起状態の総減衰速度によって最終的に制限されることを示す。 通常の1次元導波路で伝播する単一光子パルスに対して、記憶効率は50 \%$の上限を持つ。 完全な単一光子貯蔵は、カイラル導波路またはサニャック干渉計を用いて達成できる。 フォック状態とコヒーレント状態パルスの貯蔵効率を比較することで、光の量子統計が光子レベルの光子貯蔵に与える影響を明らかにする。 この結果は、単一光子ストレージの最適化に新たな方法をもたらす可能性がある。

We theoretically investigate the limits of single-photon storage in a single $\Lambda$-type atom, specifically the trade-off between storage efficiency and storage speed. A control field can be exploited to accelerate the storage process without degrading efficiency too much. We show that the storage speed is ultimately limited by the total decay rate of the involved excited state. For a single-photon pulse propagating in a regular one-dimensional waveguide, the storage efficiency has an upper limit of $50 \%$. Perfect single-photon storage can be achieved by using a chiral waveguide or the Sagnac interferometry. By comparing the storage efficiencies of Fock-state and coherent-state pulses, we reveal the influence of quantum statistics of light on photon storage at the single-photon level. Our results could pave a new way for the optimization of single-photon storage.
翻訳日:2023-01-08 22:09:15 公開日:2023-01-04
# シュワルツシルトブラックホールのホーキング効果を受けるw状態の真の三成分絡み合い

Genuine tripartite entanglement of W state subject to Hawking effect of a Schwarzschild black hole ( http://arxiv.org/abs/2301.01566v1 )

ライセンス: Link先を確認
Shu-Min Wu, Xiao-Wei Fan, Xiao-Li Huang, Hao-Sheng Zeng(参考訳) シュワルツシルトブラックホールの背景にあるフェルミオン場W状態の真の三部構造エンタングルメント(GTE)、一三角形および二三角形の研究を行った。 ホーキング温度の上昇に伴い、W状態のGTEは最初は減少し、その後0となる傾向にあり、GHZ状態のGTEは最初は減少し、その後凍結することがわかった。 また、ホーキング効果はw状態の2角形を完全に破壊し、一方1角形はまず減少し、その後ホーキング温度の成長とともに凍結現象が現れる。 これらの結果は、相対論的量子情報タスクに対処するために適切な量子状態と量子資源を選択するのに役立ちます。

We study the genuine tripartite entanglement (GTE), one-tangle and two-tangle of W state of fermionic fields in the background of a Schwarzschild black hole. We find that, with the increase of the Hawking temperature, the GTE of W state first decreases and then tends to zero, while the GTE of GHZ state first decreases and then freezes. We also find that the Hawking effect can completely destroy the two-tangle of W state, whilie one-tangle first decreases and then appears freezing phenomenon with the growth of the Hawking temperature. These results are helpful to guide us to select appropriate quantum states and quantum resources to deal with relativistic quantum information tasks.
翻訳日:2023-01-08 22:09:01 公開日:2023-01-04
# False Onsager 関係

False Onsager relations ( http://arxiv.org/abs/2301.01645v1 )

ライセンス: Link先を確認
Michele Campisi(参考訳) 最近の研究は、システムが"false time reversal violation"を持つとき、オンサガーの相互関係は磁場が存在するにもかかわらず保持されることを示唆している。 この研究の目的は、オンサーガー関係が「偽の時間逆転違反」の存在下では確実に違反される可能性があることを明確にすることであり、むしろ「偽のオンサーガー関係」を疑う異なる関係の妥当性を保証することである。 また, 量子系では"false time reversal violation"が全出しており, 概ねこれはオンサガー関係の妥当性, あるいは磁場の存在下でのより一般的な非平衡揺らぎ関係に関して何の帰結も持たない,と指摘する。 我々の議論は、外部磁場における磁石のハイゼンベルクモデルで示される。

Recent research suggests that when a system has a "false time reversal violation" the Onsager reciprocity relations hold despite the presence of a magnetic field. The purpose of this work is to clarify that the Onsager relations may well be violated in presence of a "false time reversal violation": that rather guarantees the validity of distinct relations, which we dub "false Onsager relations". We also point out that for quantum systems "false time reversal violation" is omnipresent and comment that, per se, this has in general no consequence in regard to the validity of Onsager relations, or the more general non-equilibrium fluctuation relations, in presence of a magnetic field. Our arguments are illustrated with the Heisenberg model of a magnet in an external magnetic field.
翻訳日:2023-01-08 22:08:47 公開日:2023-01-04
# 非相互ホッピングをもつ一次元モザイクモデルのモビリティエッジとリャプノフ指数

Mobility edges and Lyapunov exponents of one dimensional mosaic models with nonreciprocal hopping ( http://arxiv.org/abs/2301.01711v1 )

ライセンス: Link先を確認
Sheng-Lian Jiang, Yanxia Liu and Li-Jun Lang(参考訳) 一次元において、非相反ホッピングを持つモザイクモデルの非モザイクモデルに対する一般マッピングを確立し、その非モザイクモデルの局所化の臨界点がすでに知られている。 この写像は、これらの非相互モザイクモデルのモザイクエッジや、非モザイクモデルが与えられる場合のリャプノフ指数さえも生み出す。 実演では、複素準周期ポテンシャルを持つAubry-Andre-likeモデルとGaneshan-Pixley-Das Sarmaモデルを用いて、写像の有効性を示し、非相互モザイクの移動エッジとリアプノフ指数を得る。 この一般写像は、モビリティエッジ、リャプノフ指数、および原則として他の重要な非相反モザイクモデルの研究の道を開くことができる。

We establish in one dimension a general mapping of mosaic models with nonreciprocal hopping to their non-mosaic counterparts of which the critical points of localization are already known. The mapping gives birth to the mobility edges of these nonreciprocal mosaic models and even the Lyapunov exponents if the non-mosaic counterpart is given. For demonstrations, we take an Aubry-Andre-like model with complex quasiperiodic potentials and the Ganeshan-Pixley-Das Sarma model to show the mapping's validity, successfully obtaining the mobility edges and the Lyapunov exponents of their nonreciprocal mosaic counterparts. This general mapping may pave the way of studying mobility edges, Lyapunov exponents, and in principle other important quantities of nonreciprocal mosaic models.
翻訳日:2023-01-08 22:08:33 公開日:2023-01-04
# 120 \leq Z \leq 170$の超重元素の基底状態:電子相関、ブライトおよびQED効果の系統的研究

Ground state of superheavy elements with $120 \leq Z \leq 170$: systematic study of the electron-correlation, Breit, and QED effects ( http://arxiv.org/abs/2301.01740v1 )

ライセンス: Link先を確認
I. M. Savelyev, M. Y. Kaygorodov, Y. S. Kozhedub, A. V. Malyshev, I. I. Tupitsyn, and V. M. Shabaev(参考訳) 原子番号120\leq Z \leq 170$の超重元素の場合、基底状態の構成の概念は再検討されている。 この目的のために、ディラック・フォック法と構成-相互作用法を用いて、低層層の電子構造の相対論的計算を行い、ブライト相互作用の磁気的および遅延的部分とQED効果を考慮に入れた。 相対論的, QED, 電子-電子相関効果が基底状態の決定に及ぼす影響を解析した。

For superheavy elements with atomic numbers $120\leq Z \leq 170$, the concept of the ground-state configuration is being reexamined. To this end, relativistic calculations of the electronic structure of the low-lying levels are carried out by means of the Dirac-Fock and configuration-interaction methods.The magnetic and retardation parts of the Breit interaction as well as the QED effects are taken into account. The influence of the relativistic, QED, and electron-electron correlation effects on the determination of the ground-state is analyzed.
翻訳日:2023-01-08 22:08:15 公開日:2023-01-04
# 量子機械学習:物理からソフトウェア工学へ

Quantum Machine Learning: from physics to software engineering ( http://arxiv.org/abs/2301.01851v1 )

ライセンス: Link先を確認
Alexey Melnikov, Mohammad Kordzanganeh, Alexander Alodjants, and Ray-Kuang Lee(参考訳) 量子機械学習(Quantum Machine Learning、QML)は、量子情報科学と量子技術が新しい機械学習と人工知能の施設に適合する新しい、急速に成長し、魅力的な研究分野である。 本稿では,現在のQML手法とアプローチの主な方向性を総合的に分析する。 私たちの仕事は2つある。 まず、古典的な機械学習アプローチが、現在利用可能な量子コンピュータやシミュレータの設備をいかに改善できるかを示す。 現代のノイズの多い中間スケール量子(NISQ)時代の量子技術のために最も重要である。 特に、古典的な機械学習アプローチでは、量子デバイスを実装することで、望ましい量子状態を達成するために量子ハードウェアを最適化することができる。 第2に,量子アルゴリズムと量子コンピュータがキーストーン古典的機械学習課題の解法にどのように役立つかについて議論する。 現在、古典的な情報処理に量子アプローチを用いる量子インスパイアされたアルゴリズムは、古典的な計算能力を改善するためのソフトウェア工学において強力なツールである。 本稿では,変分回路の量子古典的学習アルゴリズムに実装可能な,様々な量子ニューラルネットワーク機能について論じる。 量子コンピュータが日常的な機械学習手順に関与することが期待される。 この意味では、古典的および量子的アルゴリズムの両方で使用される任意のグラフ上のランダムウォークの高速化問題を解明することが重要であることを示す。 基本および応用量子物理学における機械学習によって強化された量子技術、および量子トモグラフィーとフォトニック量子コンピューティングについても紹介する。

Quantum machine learning (QML) is a new, rapidly growing, and fascinating area of research where quantum information science and quantum technologies meet novel machine learning and artificial intelligent facilities. A comprehensive analysis of the main directions of current QML methods and approaches is performed in this review. The aim of our work is twofold. First, we show how classical machine learning approach can help improve the facilities of quantum computers and simulators available today. It is most important due to the modern noisy intermediate-scale quantum (NISQ) era of quantum technologies. In particular, the classical machine learning approach allows optimizing quantum hardware for achieving desired quantum states by implementing quantum devices. Second, we discuss how quantum algorithms and quantum computers may be useful for solving keystone classical machine learning tasks. Currently, quantum-inspired algorithms, which use a quantum approach to classical information processing, represent a powerful tool in software engineering for improving classical computation capacities. In this work, we discuss various quantum neural network capabilities that can be implemented in quantum-classical training algorithms for variational circuits. It is expected that quantum computers will be involved in routine machine learning procedures. In this sense, we are showing how it is essential to elucidate the speedup problem for random walks on arbitrary graphs, which are used in both classical and quantum algorithms. Quantum technologies enhanced by machine learning in fundamental and applied quantum physics, as well as quantum tomography and photonic quantum computing, are also covered.
翻訳日:2023-01-08 22:08:04 公開日:2023-01-04
# かごめキュービット氷

Kagome qubit ice ( http://arxiv.org/abs/2301.01853v1 )

ライセンス: Link先を確認
Alejandro Lopez-Bezanilla, Jack Raymond, Kelly Boothby, Juan Carrasquilla, Cristiano Nisoli, Andrew D. King(参考訳) 拘束障害を伴うスピン液体のトポロジカル相は、分数化励起の運動学を司る。 しかし、異なる運動状態を持つスピン液相は実験的に観察することが困難であることが証明されている。 ここでは,量子アニーラの超伝導量子ビット中にカゴメスピンアイスが実現され,スピン-液相間の磁場誘起運動的交差を示す。 局所磁場の微妙な制御を用いて,氷i相と非コンベンション磁場誘起氷ii相の両方の証拠を示す。 後者では、電荷秩序でスピン非秩序な位相相は、強い相関、電荷保存、分数化励起の対の生成と消滅によって進行する。 これらの運動機構は、他の人工スピンアイス実現における特徴付けに抵抗しているため、スピン液体のトポロジカル相の研究を進めるための量子駆動型運動学の有用性を実証した。

Topological phases of spin liquids with constrained disorder can host a kinetics of fractionalized excitations. However, spin-liquid phases with distinct kinetic regimes have proven difficult to observe experimentally. Here we present a realization of kagome spin ice in the superconducting qubits of a quantum annealer, and use it to demonstrate a field-induced kinetic crossover between spin-liquid phases. Employing fine control over local magnetic fields, we show evidence of both the Ice-I phase and an unconventional field-induced Ice-II phase. In the latter, a charge-ordered yet spin-disordered topological phase, the kinetics proceeds via pair creation and annihilation of strongly correlated, charge conserving, fractionalized excitations. As these kinetic regimes have resisted characterization in other artificial spin ice realizations, our results demonstrate the utility of quantum-driven kinetics in advancing the study of topological phases of spin liquids.
翻訳日:2023-01-08 22:07:41 公開日:2023-01-04
# 低次元横場イジングモデルにおける相関拡散のダイナミクス

Dynamics of correlation spreading in low-dimensional transverse-field Ising models ( http://arxiv.org/abs/2301.01407v1 )

ライセンス: Link先を確認
Ryui Kaneko, Ippei Danshita(参考訳) 本研究では, 横場イジングモデルにおける磁気乱れ状態から始まる量子クエンチ後の空間相関の動的拡散について, 1(1D)と2つの空間次元(2D)で検討した。 本研究では, 複数手法を用いて, 縦および横のスピンスピン-スピン相関関数を等時間に解析する。 線形スピン波近似(LSWA)と厳密な解析手法(LSWA)による1Dの結果との比較から、LSWAは相関関数の詳細な時間依存性を捉えるのに失敗しながら、強い横磁場の極限における正確な群速度を漸近的に再現できることを示した。 厳密な解析的アプローチが不可能な2DケースにLSWAを適用することで、伝播速度を強磁場限界において$Ja/(2\hbar)$と推定し、$J$はイジング相互作用であり、$a$は格子間隔である。 また,2次元の投影された対状態に基づくテンソルネットワーク法を用い,相対的に短時間で相関関数の時間発展を定量的に計算する。 本研究は, 将来のリブ・ロビンソン境界の相関拡散と理論的洗練に関する量子シミュレーション実験に有用である。

We investigate the dynamical spreading of spatial correlations after a quantum quench starting from a magnetically disordered state in the transverse-field Ising model at one (1D) and two spatial dimensions (2D). We analyze specifically the longitudinal and transverse spin-spin correlation functions at equal time with use of several methods. From the comparison of the results in 1D obtained by the linear spin-wave approximation (LSWA) and those obtained by the rigorous analytical approach, we show that the LSWA can asymptotically reproduce the exact group velocity in the limit of strong transverse fields while it fails to capture the detailed time dependence of the correlation functions. By applying the LSWA to the 2D case, in which the rigorous analytical approach is unavailable, we estimate the propagation velocity to be $Ja/(2\hbar)$ at the strong-field limit, where $J$ is the Ising interaction and $a$ is the lattice spacing. We also utilize the tensor-network method based on the projected-entangled pair states for 2D and quantitatively compute the time evolution of the correlation functions for a relatively short time. Our findings provide useful benchmarks for quantum simulation experiments of correlation spreading and theoretical refinement of the Lieb-Robinson bound in the future.
翻訳日:2023-01-08 21:58:27 公開日:2023-01-04
# 確率制約付きバイナリ最適化のための量子的アプローチ

A Quantum Approach for Stochastic Constrained Binary Optimization ( http://arxiv.org/abs/2301.01443v1 )

ライセンス: Link先を確認
Sarthak Gupta and Vassilis Kekatos(参考訳) 分析的および実践的な証拠は、古典的な代替よりも量子コンピューティングソリューションの利点を示している。 量子固有解法(VQE)と量子近似最適化アルゴリズム(QAOA)に依存した量子ベースのヒューリスティックスは、ハード組合せ問題に対する高品質な解を生成するために数値的に示されてきたが、そのような問題に制約を組み込むことは可能であった。 この目的のために、この研究は確率的二次制約付き二次プログラム(qcqp)に対処する量子ヒューリスティックである。 量子回路の強度を同定して、サンプリングが難しい確率分布からサンプルを効率よく生成し、変分量子回路を訓練して、2値ベクトルを生成し、上記の確率的プログラムをほぼ解く。 この手法は二重分解に基づいて構築され、規則的に修正された標準VQEタスクのシーケンスを解決する。 量子シミュレータを用いたいくつかの合成問題に対するテストは、この手法の最適化と実現可能性、決定論的qcqpに対する実現可能な解を生成する可能性とを相関させる。

Analytical and practical evidence indicates the advantage of quantum computing solutions over classical alternatives. Quantum-based heuristics relying on the variational quantum eigensolver (VQE) and the quantum approximate optimization algorithm (QAOA) have been shown numerically to generate high-quality solutions to hard combinatorial problems, yet incorporating constraints to such problems has been elusive. To this end, this work puts forth a quantum heuristic to cope with stochastic binary quadratically constrained quadratic programs (QCQP). Identifying the strength of quantum circuits to efficiently generate samples from probability distributions that are otherwise hard to sample from, the variational quantum circuit is trained to generate binary-valued vectors to approximately solve the aforesaid stochastic program. The method builds upon dual decomposition and entails solving a sequence of judiciously modified standard VQE tasks. Tests on several synthetic problem instances using a quantum simulator corroborate the near-optimality and feasibility of the method, and its potential to generate feasible solutions for the deterministic QCQP too.
翻訳日:2023-01-08 21:58:03 公開日:2023-01-04
# マルチタイム量子通信: 興味深いが反事実ではない

Multitime Quantum Communication: Interesting But Not Counterfactual ( http://arxiv.org/abs/2301.01730v1 )

ライセンス: Link先を確認
Robert B. Griffiths(参考訳) Salihらによって導入された2つの当事者間での情報伝達プロトコルPhys。 Rev. Lett. 110 (2013) 170502 (ここでslazの後)は、単に一方向の信号を送るのではなく、一連のステップで量子チャネルで量子振幅を前後に送信する。 著者らは、それらのプロトコルは、両者をつなぐために量子チャネルが必要であるが、ステップ数が無限になる傾向があるため、その実際の使用量は漸近的限界において極めて小さくなるという意味で、'counterfactual'であると主張した。 ここでは、量子干渉の存在下で中間時間で有効でない確率論的推論を使用するため、この主張は誤りであることを示す。 未定義の確率が、チャネルを通じて送信される振幅の絶対二乗に等しい「コスト」と呼ばれるよく定義されたチャネル使用量の尺度に置き換えられるとき、その総コストは、多くのステップの漸近極限においてゼロにならず、厳密な不等式によって下限となる。 詳細な分析により、この境界がSLAZプロトコルで満たされていることが示されている。 この境界につながる解析は、純量子状態の集合の内部積によって形成されるグラム行列がヒルベルト部分空間上の加法的であり、ユニタリ時間変換の下で不変であるという事実を用いる。 その非対角的要素は概して肯定的ではないが、形式的議論において重要な役割を果たすとともに、情報の伝達を幾分奇妙な方法で可視化する。

A protocol for transmission of information between two parties introduced by Salih et al., Phys. Rev. Lett. 110 (2013) 170502 (hereafter SLAZ), involves sending quantum amplitude back and forth through a quantum channel in a series of steps, rather than simply sending a signal in one direction. The authors claimed that their protocol was ``counterfactual'' in the sense that while a quantum channel is needed to connect the parties, its actual usage becomes vanishingly small in the asymptotic limit as the number of steps tends to infinity. Here we show that this claim is incorrect because it uses probabilistic reasoning that is not valid at intermediate times in the presence of quantum interference. When ill-defined probabilities are replaced with a well-defined measure of channel usage here called ``Cost'', equal to the absolute square of the amplitude sent through the channel, the total Cost does not go to zero in the asymptotic limit of a large number of steps, but is bounded below by a rigorous inequality. A detailed analysis shows that this bound is satisfied in the SLAZ protocol. The analysis leading to the bound uses the fact that the Gram matrix formed by inner products of a collection of pure quantum states is additive over Hilbert subspaces and invariant under unitary time transformations. Its off-diagonal elements, which in general are not positive, play a significant role in the formal argument as well as providing a somewhat strange way of visualizing the transfer of information.
翻訳日:2023-01-08 21:51:38 公開日:2023-01-04
# 最適ワンショット絡み合い共有

Optimal one-shot entanglement sharing ( http://arxiv.org/abs/2301.01781v1 )

ライセンス: Link先を確認
Vikesh Siddhu and John Smolin(参考訳) 量子インターコネクト間の絡み合いの共有は、量子情報処理の基本である。 本稿では、この相互接続を量子チャネルでモデル化し、高忠実度エンタングルメントの共有を目的とした実用的な設定について論じる。 任意のチャネルに対して、この最大忠実度とそれを実現する最適入力の両方を容易に見つける方法を提供する。 絡み合いを共有するためのほとんどの指標とは異なり、この最大忠実性は乗法であることが示される。 これにより、ワンショット設定で見つかった最大忠実度と最適な入力が、複数のチャンネルが、おそらく他のチャネルと使用されても拡張されるという意味で、完全な理解が得られます。 最適な入力は完全に絡み合う必要はない。 これらの最適入力における最小絡み合いは、チャネルノイズによって不連続に変化することがある。 一般に、ノイズパラメータは識別が難しく、ほとんどのチャネルで未知のままである。 しかし、クビット環境を持つ全てのクビットチャネルに対して、厳密なノイズパラメトリゼーションを提供し、非閉鎖の時期を説明する。 この雑音のパラメトリゼーションと、我々が標準クラウス分解と呼ぶチャネル表現は、それらがより一般的に有用であるような喜ばしい性質を持つ。

Sharing entanglement across quantum interconnects is fundamental for quantum information processing. We discuss a practical setting where this interconnect, modeled by a quantum channel, is used once with the aim of sharing high fidelity entanglement. For any channel, we provide methods to easily find both this maximum fidelity and optimal inputs that achieve it. Unlike most metrics for sharing entanglement, this maximum fidelity can be shown to be multiplicative. This ensures a complete understanding in the sense that the maximum fidelity and optimal inputs found in our one-shot setting extend even when the channel is used multiple times, possibly with other channels. Optimal inputs need not be fully entangled. We find the minimum entanglement in these optimal inputs can even vary discontinuously with channel noise. Generally, noise parameters are hard to identify and remain unknown for most channels. However, for all qubit channels with qubit environments, we provide a rigorous noise parametrization which we explain in-terms of no-cloning. This noise parametrization and a channel representation we call the standard Kraus decomposition have pleasing properties that make them both useful more generally.
翻訳日:2023-01-08 21:51:11 公開日:2023-01-04
# 多体固有状態の還元密度行列とモジュラー

Reduced Density Matrices and Moduli of Many-Body Eigenstates ( http://arxiv.org/abs/2301.01419v1 )

ライセンス: Link先を確認
Chaoming Song(参考訳) 多体波動関数は通常高次元ヒルベルト空間に存在する。 しかし、物理的に関係のある状態、すなわちシュリンガー方程式の固有状態は稀である。 対相互作用のみを含む多体系では、これらの固有状態はヒルベルト空間全体の低次元部分空間を形成する。 固有状態モジュライ問題と呼ばれるこの部分空間の幾何学は、2-粒子ハミルトンの集合によってパラメータ化される。 この問題は2次元密度行列のn$-表現可能性条件と密接に関連しており、量子多体系にとって長年の課題である。 その重要性にも拘わらず、固有モジュラー問題は文献にはほとんど解明されていない。 本稿では,この問題に対する包括的アプローチを提案する。 我々は、$m$-相互作用系の固有状態空間を射影多様体として完全に決定する代数方程式の明示的な集合を発見し、それが表現可能な還元密度行列の空間の幾何学を決定する。 これらの空間の幾何学的構造を調査し, 厳密な対角化法を用いて数値的検証を行った。 最後に、実変数の集合によってパラメータ化されるハミルトニアンの任意の族に対するモジュライ問題へのアプローチを一般化する。

Many-body wavefunctions usually lie in high-dimensional Hilbert spaces. However, physically relevant states, i.e, the eigenstates of the Schr\"odinger equation are rare. For many-body systems involving only pairwise interactions, these eigenstates form a low-dimensional subspace of the entire Hilbert space. The geometry of this subspace, which we call the eigenstate moduli problem is parameterized by a set of 2-particle Hamiltonian. This problem is closely related to the $N$-representability conditions for 2-reduced density matrices, a long-standing challenge for quantum many-body systems. Despite its importance, the eigenstate moduli problem remains largely unexplored in the literature. In this Letter, we propose a comprehensive approach to this problem. We discover an explicit set of algebraic equations that fully determine the eigenstate spaces of $m$-interaction systems as projective varieties, which in turn determine the geometry of the spaces for representable reduced density matrices. We investigate the geometrical structure of these spaces, and validate our results numerically using the exact diagonalization method. Finally, we generalize our approach to the moduli problem of the arbitrary family of Hamiltonians parameterized by a set of real variables.
翻訳日:2023-01-08 21:41:09 公開日:2023-01-04
# 変分基底状態エンコーダによる電子フォノン系の効率的な量子シミュレーション

Efficient Quantum Simulation of Electron-Phonon Systems by Variational Basis State Encoder ( http://arxiv.org/abs/2301.01442v1 )

ライセンス: Link先を確認
Weitang Li, Jiajun Ren, Sainan Huai, Tianqi Cai, Zhigang Shuai, Shengyu Zhang(参考訳) 電子フォノン系のデジタル量子シミュレーションでは、無限フォノン準位をn$基底状態に切り換え、量子ビット計算基底でエンコードする必要がある。 ユニタリ符号化とよりコンパクトなバイナリ/Gray符号化は、それぞれ$\mathcal{O}(N)$と$\mathcal{O}(\log{N})$ qubitsと$\mathcal{O}(N)$と$\mathcal{O}(N\log{N})$量子ゲートを要求する2つの最も代表的な符号化スキームである。 本研究では,量子ビット数と量子ゲート数のスケーリングを$\mathcal{O}(1)$に削減する変動基底状態符号化アルゴリズムを提案する。 スケーリング削減のコストは、付加的な測定の一定量である。 このアプローチの精度と効率は、数値シミュレーションと現実的な量子ハードウェア実験の両方によって検証される。 特に、各フォノンモードに 1 または 2 キュービットを使用すると、弱い結合状態と強い結合状態にまたがって定量的に正しい結果が得られる。 提案手法は,短期ハードウェアおよび誤り訂正量子コンピュータ上での電子フォノンシステムの実用的な量子シミュレーション手法である。

Digital quantum simulation of electron-phonon systems requires truncating infinite phonon levels into $N$ basis states and then encoding them with qubit computational basis. Unary encoding and the more compact binary/Gray encoding are the two most representative encoding schemes, which demand $\mathcal{O}(N)$ and $\mathcal{O}(\log{N})$ qubits as well as $\mathcal{O}(N)$ and $\mathcal{O}(N\log{N})$ quantum gates respectively. In this work, we propose a variational basis state encoding algorithm that reduces the scaling of the number of qubits and quantum gates to both $\mathcal{O}(1)$. The cost for the scaling reduction is a constant amount of additional measurement. The accuracy and efficiency of the approach are verified by both numerical simulation and realistic quantum hardware experiments. In particular, we find using 1 or 2 qubits for each phonon mode is sufficient to produce quantitatively correct results across weak and strong coupling regimes. Our approach paves the way for practical quantum simulation of electron-phonon systems on both near-term hardware and error-corrected quantum computers.
翻訳日:2023-01-08 21:40:54 公開日:2023-01-04
# 単純なミラー・ビームスプリッタ系におけるサブポアソン光

Engineering sub-Poisson light in a simple mirror and beam splitter system ( http://arxiv.org/abs/2301.01455v1 )

ライセンス: Link先を確認
Sun-Hyun Youn(参考訳) 電場固有の性質である真空変動は、ホモダイン検出によって測定することができる。 また、電場強度変動は真空変動にも関係している。 圧縮真空とサブポアソン光は、非線形相互作用を用いて真空揺らぎを制御することで得られる。 1994年にビームスプリッタの未使用部に鏡を挿入して圧縮真空を基礎として,真空場と光場とのモードマッチング法を提案する。 また、ビームスプリッタの未使用部分にミラーを挿入することにより、光強度変動を低減することができる。 ミラーと検出器の距離の関数としてサブポアソン光を得るには、波長よりも薄い活性層を持つ検出器が必要である。

Vacuum fluctuation, which is the intrinsic nature of an electric field can be measured via homodyne detection. Moreover, electric field intensity fluctuation are also related to vacuum fluctuations. Squeezed vacuum and sub-Poisson light can be obtained by controlling the vacuum fluctuation using noble nonlinear interaction. Based on the squeezed vacuum by inserting a mirror on the unused part of the beam splitter was proposed in 1994, we present the mode matching method for the vacuum and light fields. Light intensity fluctuations also can be reduced by inserting a mirror on the unused part of the beam splitter. To obtain sub-Poisson light as a function of the distance between the mirror and detector, a detector with a thinner active layer than the wavelength is required.
翻訳日:2023-01-08 21:40:28 公開日:2023-01-04
# 箱内の1次元KFG粒子に対する一般自己共役境界条件

General pseudo self-adjoint boundary conditions for a 1D KFG particle in a box ( http://arxiv.org/abs/2301.01565v1 )

ライセンス: Link先を確認
Salvatore De Vincenzo(参考訳) 有限区間の1次元クラインフォック・ゴルドン粒子(box)を考える。 時間 1d klein-fock-gordon 波動方程式や 1d feshbach-villars 波動方程式において第一次に存在するハミルトン作用素の擬自己随伴境界条件の最も一般的な集合を構成する。 この集合は4つの実パラメータに依存し、時間 1d klein-fock-gordon 波動方程式とその空間微分における2階の1成分波動関数の項で書くことができる。 この集合は、箱の端で評価された1次元フェッシュバッハ・ビラーズ方程式とその空間微分の2成分波動関数に依存することもできるが、実際にはこれらの2つの列ベクトルにそれぞれハミルトニアンの運動エネルギー項に存在する特異行列を乗じて依存する。 結果として、この境界条件の集合は、フェシュバッハ・ヴィラース方程式の2成分波動関数とその空間微分が箱の端で評価され、それ自身で満たされることを示唆していない。 しかし、1D Feshbach-Villars方程式の任意の特定の境界条件は、1D Klein-Fock-Gordon波動方程式の2次境界条件から得られ、1D Feshbach-Villars方程式の2成分波動関数の定義から生じる一対の関係を用いて得られる。 この結果は、1Dクライン・フォック=ゴードン粒子が1点に穴を開けて実線上を移動する問題にまで拡張できる。

We consider a 1D Klein-Fock-Gordon particle in a finite interval, or box. We construct the most general set of pseudo self-adjoint boundary conditions for the Hamiltonian operator that is present in the first order in time 1D Klein-Fock-Gordon wave equation, or the 1D Feshbach-Villars wave equation. This set depends on four real parameters and can be written in terms of the one-component wavefunction for the second order in time 1D Klein-Fock-Gordon wave equation and its spatial derivative, both evaluated at the endpoints of the box. This set can also be made dependent on the two-component wavefunction for the 1D Feshbach-Villars equation and its spatial derivative, evaluated at the ends of the box; however, the set actually depends on these two column vectors each multiplied by the singular matrix that is present in the kinetic energy term of the Hamiltonian. As a consequence, this set of boundary conditions does not imply that the two-component wavefunction for the Feshbach-Villars equation and its spatial derivative, evaluated at the ends of the box, satisfy it by themselves. However, any specific boundary condition for the 1D Feshbach-Villars equation can be obtained from the respective boundary condition for the second order in time 1D Klein-Fock-Gordon wave equation and using a pair of relations that arise from the very definition of the two-component wavefunction for the 1D Feshbach-Villars equation. Our results can be extended to the problem of the 1D Klein-Fock-Gordon particle moving on the real line with a hole at one point.
翻訳日:2023-01-08 21:40:17 公開日:2023-01-04
# 合成規則を用いたプロセス発見のための順序付け戦略の比較

Comparing Ordering Strategies For Process Discovery Using Synthesis Rules ( http://arxiv.org/abs/2301.02182v1 )

ライセンス: Link先を確認
Tsung-Hao Huang and Wil M. P. van der Aalst(参考訳) プロセス発見は、情報システムにおける観測行動、すなわちイベントログからプロセスモデルを学ぶことを目的としており、発見されたモデルは、パフォーマンスとコンプライアンスの問題に対処するために使用されるプロセスマイニング技術の出発点となる。 最先端のインダクティブマイナーと比較して、自由選択ネット理論から合成規則を適用するアルゴリズムは、より柔軟な(非ブロック)構造を持つプロセスモデルを発見し、同じ望ましい音質と自由選択性を保証する。 さらに、この研究の最近の進展は、検出されたモデルが互換性のある品質を持つことを示している。 合成規則に従って、アルゴリズムはイベントログにアクティビティを1回ずつ追加することで、既存のプロセスモデルを段階的に修正する。 ルールの適用は既存のモデル構造に大きく依存しているため、モデルの品質と計算時間は、アクティビティの追加順序に大きく影響される。 本稿では, 実生活イベントデータを用いて, 探索モデル(例えば, 適合度や精度)と計算時間に異なる順序付け戦略が与える影響について検討する。 その結果,提案した順序付け戦略は,アクティビティの頻度のみに基づく順序付け戦略に比べて,時間を要することなく,結果のプロセスモデルの品質を向上させることができることがわかった。

Process discovery aims to learn process models from observed behaviors, i.e., event logs, in the information systems.The discovered models serve as the starting point for process mining techniques that are used to address performance and compliance problems. Compared to the state-of-the-art Inductive Miner, the algorithm applying synthesis rules from the free-choice net theory discovers process models with more flexible (non-block) structures while ensuring the same desirable soundness and free-choiceness properties. Moreover, recent development in this line of work shows that the discovered models have compatible quality. Following the synthesis rules, the algorithm incrementally modifies an existing process model by adding the activities in the event log one at a time. As the applications of rules are highly dependent on the existing model structure, the model quality and computation time are significantly influenced by the order of adding activities. In this paper, we investigate the effect of different ordering strategies on the discovered models (w.r.t. fitness and precision) and the computation time using real-life event data. The results show that the proposed ordering strategy can improve the quality of the resulting process models while requiring less time compared to the ordering strategy solely based on the frequency of activities.
翻訳日:2023-01-06 14:51:44 公開日:2023-01-04
# fintech-kmc: 機械学習システムの設計とテストのための金融プラットフォームのエージェントベースシミュレーション

fintech-kMC: Agent based simulations of financial platforms for design and testing of machine learning systems ( http://arxiv.org/abs/2301.01807v1 )

ライセンス: Link先を確認
Isaac Tamblyn, Tengkai Yu, Ian Benlolo(参考訳) 機械学習モデルの開発とテストのための合成データを生成するためのシミュレーションツールであるfintech-kMCについて論じる。 fintech-kmcは、オンラインデジタル金融プラットフォームを使用して顧客の振る舞いをシミュレートするキネティックモンテカルロ(すなわち連続時間モンテカルロ)エンジンによって駆動されるエージェントベースのモデルである。 このツールは、現実世界の金融アプリケーションで使用されるai/mlモデルとパイプラインの検証とテストに使用できる合成データを生成する、解釈可能で再現性があり、現実的な方法を提供する。

We discuss our simulation tool, fintech-kMC, which is designed to generate synthetic data for machine learning model development and testing. fintech-kMC is an agent-based model driven by a kinetic Monte Carlo (a.k.a. continuous time Monte Carlo) engine which simulates the behaviour of customers using an online digital financial platform. The tool provides an interpretable, reproducible, and realistic way of generating synthetic data which can be used to validate and test AI/ML models and pipelines to be used in real-world customer-facing financial applications.
翻訳日:2023-01-06 14:44:43 公開日:2023-01-04
# 連合分割学習におけるプライバシーとコミュニケーションの効率

Privacy and Efficiency of Communications in Federated Split Learning ( http://arxiv.org/abs/2301.01824v1 )

ライセンス: Link先を確認
Zongshun Zhang, Andrea Pinto, Valeria Turina, Flavio Esposito and Ibrahim Matta(参考訳) 毎日、大量の機密データ \sai{is} が携帯電話、ウェアラブルデバイス、その他のセンサーに分散している。 伝統的に、これらの巨大なデータセットは単一のシステムで処理され、複雑なモデルは貴重な予測を行うために訓練されている。 FederatedやSplit Learningといった分散機械学習技術は、ハイパフォーマンスを確保しつつ、ユーザの \sai{data and} のプライバシーをよりよく保護するために開発されている。 これらの分散学習アーキテクチャには長所と短所がある。 本稿では,これらのトレードオフを検証し,両者の効率性とプライバシのメリットを組み合わせた,新しいハイブリッドなFederated Split Learningアーキテクチャを提案する。 本評価は,分散学習システムを実行する各クライアントが必要とする処理パワーを削減し,類似した精度を維持しつつ,トレーニングや推論時間を短縮する方法を示す。 また、ディープラーニングによるプライバシー推論攻撃に対する我々のアプローチの弾力性についても論じ、最近提案された他のベンチマークと比較する。

Everyday, large amounts of sensitive data \sai{is} distributed across mobile phones, wearable devices, and other sensors. Traditionally, these enormous datasets have been processed on a single system, with complex models being trained to make valuable predictions. Distributed machine learning techniques such as Federated and Split Learning have recently been developed to protect user \sai{data and} privacy better while ensuring high performance. Both of these distributed learning architectures have advantages and disadvantages. In this paper, we examine these tradeoffs and suggest a new hybrid Federated Split Learning architecture that combines the efficiency and privacy benefits of both. Our evaluation demonstrates how our hybrid Federated Split Learning approach can lower the amount of processing power required by each client running a distributed learning system, reduce training and inference time while keeping a similar accuracy. We also discuss the resiliency of our approach to deep learning privacy inference attacks and compare our solution to other recently proposed benchmarks.
翻訳日:2023-01-06 14:44:30 公開日:2023-01-04
# ディープラーニングによる負荷予測のためのアベイラビリティ・アタックと対策

Availability Adversarial Attack and Countermeasures for Deep Learning-based Load Forecasting ( http://arxiv.org/abs/2301.01832v1 )

ライセンス: Link先を確認
Wangkun Xu, Fei Teng(参考訳) 電気負荷の予測は電力システムの計画と運用に不可欠である。 近年,ディープラーニングの進歩により,予測精度が向上している。 しかし、ディープニューラルネットワークは敵の攻撃を受けやすい。 文献のほとんどは完全性に基づく攻撃に焦点を当てているが、本論文では攻撃者により容易に実装できるアベイラビリティベースの敵攻撃を提案する。 各予測インスタンスに対して、アベイラビリティ攻撃位置は、人工ニューラルネットワークの混合整数再構成により最適に解決される。 この攻撃に対処するために,敵の訓練アルゴリズムを提案する。 シミュレーションでは、現実的な負荷予測データセットを検討し、攻撃性能を整合性に基づく攻撃と比較する。 一方、敵の訓練アルゴリズムは、アベイラビリティーアタックに対するロバスト性を大幅に改善する。 すべてのコードはhttps://github.com/xuwkk/AAA_Load_Forecastで入手できる。

The forecast of electrical loads is essential for the planning and operation of the power system. Recently, advances in deep learning have enabled more accurate forecasts. However, deep neural networks are prone to adversarial attacks. Although most of the literature focuses on integrity-based attacks, this paper proposes availability-based adversarial attacks, which can be more easily implemented by attackers. For each forecast instance, the availability attack position is optimally solved by mixed-integer reformulation of the artificial neural network. To tackle this attack, an adversarial training algorithm is proposed. In simulation, a realistic load forecasting dataset is considered and the attack performance is compared to the integrity-based attack. Meanwhile, the adversarial training algorithm is shown to significantly improve robustness against availability attacks. All codes are available at https://github.com/xuwkk/AAA_Load_Forecast.
翻訳日:2023-01-06 14:44:13 公開日:2023-01-04
# 配電系統状態推定のための深部統計解法

Deep Statistical Solver for Distribution System State Estimation ( http://arxiv.org/abs/2301.01835v1 )

ライセンス: Link先を確認
Benjamin Habib, Elvin Isufi, Ward van Breda, Arjen Jongepier, Jochen L. Cremer(参考訳) 正確な配電系統状態推定(DSSE)の実装には,可観測性の欠如や配電系統の高密度化など,いくつかの課題がある。 機械学習モデルに基づくデータ駆動の代替案が選択できるかもしれないが、ラベル付きデータがないためDSSEに苦しむ。 実際、分布系における測定は、しばしばうるさい、腐敗し、利用できない。 これらの問題に対処するために,配電系統のネットワーク構造と物理支配電力フロー方程式を考慮に入れたグラフニューラルネットワーク(GNN)に基づくディープラーニングモデルである分散系統状態推定のためのDeep Statistical Solver(DSS$^2$)を提案する。 dss$^2$はハイパーグラフを利用して分散システムの異種コンポーネントを表現し、ノード中心のメッセージパッシングスキームを介して潜在表現を更新する。 DSS$^2$を学習と最適化の手法で訓練する弱い教師付き学習手法が提案されている。 GNN出力を電力流方程式に、後者を損失関数に強制することにより、DSS$^2$を分配系の物理を尊重させる。 この戦略はノイズの測定から学び、暗黙のデノイザーとして振る舞うことを可能にし、理想的なラベル付きデータの必要性を緩和する。 IEEE 14-bus、70-bus、および179-busネットワークのケーススタディによる大規模な実験では、DSS$^2$が従来の重み付き最小二乗法アルゴリズムの精度、収束性、計算時間の差で上回った。 DSS$^2$は、真のラベルを持つという非現実的な仮定に依存する教師付きモデルと比較して、競合するが低い性能を達成する。

Implementing accurate Distribution System State Estimation (DSSE) faces several challenges, among which the lack of observability and the high density of the distribution system. While data-driven alternatives based on Machine Learning models could be a choice, they suffer in DSSE because of the lack of labeled data. In fact, measurements in the distribution system are often noisy, corrupted, and unavailable. To address these issues, we propose the Deep Statistical Solver for Distribution System State Estimation (DSS$^2$), a deep learning model based on graph neural networks (GNNs) that accounts for the network structure of the distribution system and for the physical governing power flow equations. DSS$^2$ leverages hypergraphs to represent the heterogeneous components of the distribution systems and updates their latent representations via a node-centric message-passing scheme. A weakly supervised learning approach is put forth to train the DSS$^2$ in a learning-to-optimize fashion w.r.t. the Weighted Least Squares loss with noisy measurements and pseudomeasurements. By enforcing the GNN output into the power flow equations and the latter into the loss function, we force the DSS$^2$ to respect the physics of the distribution system. This strategy enables learning from noisy measurements, acting as an implicit denoiser, and alleviating the need for ideal labeled data. Extensive experiments with case studies on the IEEE 14-bus, 70-bus, and 179-bus networks showed the DSS$^2$ outperforms by a margin the conventional Weighted Least Squares algorithm in accuracy, convergence, and computational time, while being more robust to noisy, erroneous, and missing measurements. The DSS$^2$ achieves a competing, yet lower, performance compared with the supervised models that rely on the unrealistic assumption of having all the true labels.
翻訳日:2023-01-06 14:44:02 公開日:2023-01-04
# アクチュエータ飽和を伴わないマルチトラック型水中車両のgoaに基づく耐故障軌道追従制御

A GOA-Based Fault-Tolerant Trajectory Tracking Control for an Underwater Vehicle of Multi-Thruster System without Actuator Saturation ( http://arxiv.org/abs/2301.01827v1 )

ライセンス: Link先を確認
Danjie Zhu, Lei Wang, Hua Zhang, Simon X. Yang(参考訳) 本稿では,スラスタ損傷(パワーロス)を受けた水中車両(UV)の軌道追尾問題に対処すると共に,車両の物理的制約によるアクチュエータ飽和を解消する,インテリジェントな耐故障制御(FTC)戦略を提案する。 提案する制御戦略において、軌道追従成分は、速度変動を制御する洗練されたバックステッピングアルゴリズムにより形成され、スライディングモード制御はトルク/フォース出力を控除し、フォールトトレラント成分は、異なる故障ケースにおける電力損失を補償するために推力の最適再配置を控除する、高速収束速度を提供するグラスホッパー最適化アルゴリズム(goa)に基づいて確立される。 異なる障害事例下での環境変動の有無のシミュレーションと、他の従来のFTCとの比較を行い、提案したGOAベースの耐故障性軌道追跡設計の有効性と堅牢性を検証する。

This paper proposes an intelligent fault-tolerant control (FTC) strategy to tackle the trajectory tracking problem of an underwater vehicle (UV) under thruster damage (power loss) cases and meanwhile resolve the actuator saturation brought by the vehicle's physical constraints. In the proposed control strategy, the trajectory tracking component is formed by a refined backstepping algorithm that controls the velocity variation and a sliding mode control deducts the torque/force outputs; the fault-tolerant component is established based on a Grasshopper Optimization Algorithm (GOA), which provides fast convergence speed as well as satisfactory accuracy of deducting optimized reallocation of the thruster forces to compensate for the power loss in different fault cases. Simulations with or without environmental perturbations under different fault cases and comparisons to other traditional FTCs are presented, thus verifying the effectiveness and robustness of the proposed GOA-based fault-tolerant trajectory tracking design.
翻訳日:2023-01-06 14:36:54 公開日:2023-01-04
# $l_{1-2}$ GLasso: $L_{1-2}$ 正規化マルチタスクグラフラッソによるeQTLマッピングと遺伝子ネットワークの同時推定

$l_{1-2}$ GLasso: $L_{1-2}$ Regularized Multi-task Graphical Lasso for Joint Estimation of eQTL Mapping and Gene Network ( http://arxiv.org/abs/2301.02225v1 )

ライセンス: Link先を確認
Wei Miao, Lan Yao(参考訳) 遺伝学における重要な問題は、細胞内で遺伝子発現がどのように制御されているかを発見することである。 規制関連学習における2つの主要な課題 i)eQTLマッピングとして知られるSNP遺伝子関係の同定、及び (ii)遺伝子ネットワーク推定として知られる遺伝子-遺伝子関係の決定。 これら2つのタスク間で情報を共有するために,eqtlマッピングと遺伝子ネットワークの結合推定のための統一モデルに着目し,l_{1-2}$正規化多タスクグラフィカルラッソ,すなわち$l_{1-2}$ glassoを提案する。 人工データセットの数値実験は、eQTLマッピングと遺伝子ネットワークの真のスパース構造を捉える上で、$L_{1-2}=GLassoの競合性能を示す。 L_{1-2}$ GLassoはADNI-1の実際のデータセットにさらに適用され、実験結果から、$L_{1 -2}$ GLassoが他の一般的な方法よりもスペーサーで正確な解を得ることができることが示されている。

A critical problem in genetics is to discover how gene expression is regulated within cells. Two major tasks of regulatory association learning are : (i) identifying SNP-gene relationships, known as eQTL mapping, and (ii) determining gene-gene relationships, known as gene network estimation. To share information between these two tasks, we focus on the unified model for joint estimation of eQTL mapping and gene network, and propose a $L_{1-2}$ regularized multi-task graphical lasso, named $L_{1-2}$ GLasso. Numerical experiments on artificial datasets demonstrate the competitive performance of $L_{1-2}$ GLasso on capturing the true sparse structure of eQTL mapping and gene network. $L_{1-2}$ GLasso is further applied to real dataset of ADNI-1 and experimental results show that $L_{1 -2}$ GLasso can obtain sparser and more accurate solutions than other commonly-used methods.
翻訳日:2023-01-06 14:35:51 公開日:2023-01-04
# PMP: 時系列のパターン推論に対するプライバシ対応行列プロファイル

PMP: Privacy-Aware Matrix Profile against Sensitive Pattern Inference for Time Series ( http://arxiv.org/abs/2301.01838v1 )

ライセンス: Link先を確認
Li Zhang, Jiahao Ding, Yifeng Gao, Jessica Lin(参考訳) 近年,センサ技術の急速な開発により,データ駆動型サービスやアプリケーション開発の基礎となる細粒度時系列(TS)データの収集が可能になった。 プロセス中、データ共有は、データ所有者のニーズに基づいて、サードパーティのモデラーが特定の時系列データマイニング(tsdm)タスクを実行するためにしばしば必要となる。 TSの高解像度化は、プライバシー保護に新たな課題をもたらす。 高分解能tsの有意義な情報は、具体的な点値から局所的な形状に基づくセグメントにシフトするが、多くの研究により、長い形状に基づくパターンはより繊細な情報を含み、悪意のある第三者によって抽出され、誤用される可能性があることが判明している。 しかし、TSパターンのプライバシー問題は、プライバシ保護の文献で調査されることはめったにない。 本研究では,実用タスク性能の短区間情報を保存しながら,長文パターンに対する悪意のある推論を防止するという,新たなプライバシ保護問題を考える。 この課題を緩和するために,原データの非線形変換である行列プロファイル(mp)と,多数のデータマイニングタスクをサポートする多目的データ構造を共有することで,代替手法を検討する。 mpは具体的な形状の漏えいを防げるが,mpインデックスの正準相関は高感度な長尺パターンの位置を明らかにすることが判明した。 この観測に基づいて,MPからパターン位置を抽出するために,位置攻撃とエントロピー攻撃という2つの攻撃を設計する。 これら2つの攻撃からMPをさらに保護するために,MPインデックスベクトルの局所的相関を摂動し,正準相関を破り,プライバシ・アウェア・マトリックスプロファイル(PMP)を提案する。 提案手法の有効性を示すための定量的解析と実世界のケーススタディにより,提案手法のベースライン雑音付加法に対するPMPの評価を行った。

Recent rapid development of sensor technology has allowed massive fine-grained time series (TS) data to be collected and set the foundation for the development of data-driven services and applications. During the process, data sharing is often involved to allow the third-party modelers to perform specific time series data mining (TSDM) tasks based on the need of data owner. The high resolution of TS brings new challenges in protecting privacy. While meaningful information in high-resolution TS shifts from concrete point values to local shape-based segments, numerous research have found that long shape-based patterns could contain more sensitive information and may potentially be extracted and misused by a malicious third party. However, the privacy issue for TS patterns is surprisingly seldom explored in privacy-preserving literature. In this work, we consider a new privacy-preserving problem: preventing malicious inference on long shape-based patterns while preserving short segment information for the utility task performance. To mitigate the challenge, we investigate an alternative approach by sharing Matrix Profile (MP), which is a non-linear transformation of original data and a versatile data structure that supports many data mining tasks. We found that while MP can prevent concrete shape leakage, the canonical correlation in MP index can still reveal the location of sensitive long pattern. Based on this observation, we design two attacks named Location Attack and Entropy Attack to extract the pattern location from MP. To further protect MP from these two attacks, we propose a Privacy-Aware Matrix Profile (PMP) via perturbing the local correlation and breaking the canonical correlation in MP index vector. We evaluate our proposed PMP against baseline noise-adding methods through quantitative analysis and real-world case studies to show the effectiveness of the proposed method.
翻訳日:2023-01-06 14:35:09 公開日:2023-01-04
# infomaxformer: 時系列予測問題に対する最大エントロピー変換器

Infomaxformer: Maximum Entropy Transformer for Long Time-Series Forecasting Problem ( http://arxiv.org/abs/2301.01772v1 )

ライセンス: Link先を確認
Peiwang Tang and Xianchao Zhang(参考訳) Transformerアーキテクチャは、入力シーケンス間の正確な長距離結合を効率的にキャプチャできるため、自然言語処理(NLP)やコンピュータビジョン(CV)といった多くのタスクにおいて最先端の結果をもたらす。 しかし、この高度な能力により、二次的な時間複雑性と高いメモリ使用量により、Transformerは長い時系列予測問題(LTFP)に対処できなくなる。 これらの困難に対処するために: (i)バニラセルフアテンションの学習した注意パターンを再検討し,最大エントロピー原理に基づく自己アテンションの計算法を再設計した。 (II) ランダムサンプリングによるより重要な自己意識スコアの喪失を防止するため, 自己意識を分離する新しい手法を提案する。 (iii)元来の自己照準図の大量の特徴が冗長であることに動機づけられたキー・値蒸留法を提案し,時間と空間の複雑さをさらに低減し,長い時系列入力を可能にする。 最後に,エンコーダ-デコーダアーキテクチャと季節分解,すなわちエンコーダ-デコーダアーキテクチャを組み合わせることで,より特定の季節的な部分を取り込む手法を提案する。 いくつかの大規模データセットに対する多数の実験は、Infomaxformerが既存の方法よりも明らかに優れていることを示している。 我々は、TransformerがLTFPを解決するための新しいソリューションを公開し、Transformerアーキテクチャがはるかに長い時間的依存関係をキャプチャする能力を探ることを期待している。

The Transformer architecture yields state-of-the-art results in many tasks such as natural language processing (NLP) and computer vision (CV), since the ability to efficiently capture the precise long-range dependency coupling between input sequences. With this advanced capability, however, the quadratic time complexity and high memory usage prevents the Transformer from dealing with long time-series forecasting problem (LTFP). To address these difficulties: (i) we revisit the learned attention patterns of the vanilla self-attention, redesigned the calculation method of self-attention based the Maximum Entropy Principle. (ii) we propose a new method to sparse the self-attention, which can prevent the loss of more important self-attention scores due to random sampling.(iii) We propose Keys/Values Distilling method motivated that a large amount of feature in the original self-attention map is redundant, which can further reduce the time and spatial complexity and make it possible to input longer time-series. Finally, we propose a method that combines the encoder-decoder architecture with seasonal-trend decomposition, i.e., using the encoder-decoder architecture to capture more specific seasonal parts. A large number of experiments on several large-scale datasets show that our Infomaxformer is obviously superior to the existing methods. We expect this to open up a new solution for Transformer to solve LTFP, and exploring the ability of the Transformer architecture to capture much longer temporal dependencies.
翻訳日:2023-01-06 14:28:33 公開日:2023-01-04
# Budbreak予測のためのマルチタスク学習

Multi-Task Learning for Budbreak Prediction ( http://arxiv.org/abs/2301.01815v1 )

ライセンス: Link先を確認
Aseem Saxena, Paola Pesantez-Cabrera, Rohan Ballapragada, Markus Keller, Alan Fern(参考訳) ブドウバドブレイクは、季節的な発達の重要な現象学的段階であり、活動的な成長の開始のシグナルとなる。 これは、ブドウが凍結温度による損傷に最も弱い場合でもある。 そのため、春の終わりからブドウ畑を守るために、ブドブレイクの発生日を予想することがワイン農家にとって重要である。 本研究は,複数のブドウ品種を対象としたデータを用いたブドブレイク予測のための深層学習について検討する。 一部の品種は30以上のデータを持っているが、他の品種は4シーズンしか持たず、予測精度に悪影響を及ぼす可能性がある。 そこで本研究では,全品種間のデータを組み合わせて個々の品種の予測を行うマルチタスク学習について検討する。 本研究の主目的は,複数種類のマルチタスク学習が,各品種の学習に比べて予測精度を大幅に向上できることである。

Grapevine budbreak is a key phenological stage of seasonal development, which serves as a signal for the onset of active growth. This is also when grape plants are most vulnerable to damage from freezing temperatures. Hence, it is important for winegrowers to anticipate the day of budbreak occurrence to protect their vineyards from late spring frost events. This work investigates deep learning for budbreak prediction using data collected for multiple grape cultivars. While some cultivars have over 30 seasons of data others have as little as 4 seasons, which can adversely impact prediction accuracy. To address this issue, we investigate multi-task learning, which combines data across all cultivars to make predictions for individual cultivars. Our main result shows that several variants of multi-task learning are all able to significantly improve prediction accuracy compared to learning for each cultivar independently.
翻訳日:2023-01-06 14:28:07 公開日:2023-01-04
# InPars-v2:情報検索のための効率的なデータセット生成器としての大規模言語モデル

InPars-v2: Large Language Models as Efficient Dataset Generators for Information Retrieval ( http://arxiv.org/abs/2301.01820v1 )

ライセンス: Link先を確認
Vitor Jeronymo, Luiz Bonifacio, Hugo Abonizio, Marzieh Fadaee, Roberto Lotufo, Jakub Zavrel, Rodrigo Nogueira(参考訳) InParsは近年,情報検索タスクにおいて,大規模言語モデル(LLM)を効率的に利用する手法を導入している。 これらの合成クエリドキュメントペアは、レトリバーのトレーニングに使用することができる。 しかし、InParsや最近では、Promptagatorは、GPT-3やFLANといったプロプライエタリなLLMを使ってそのようなデータセットを生成する。 InPars-v2は、オープンソースのLLMと既存の強力なリランカを使用して、トレーニング用に合成クエリ-ドキュメントペアを選択するデータセットジェネレータである。 InPars-v2データに微調整されたmonoT5リランカを伴い、単純なBM25検索パイプラインがBEIRベンチマークで新しい最先端の結果を得る。 研究者がメソッドをさらに改善できるように、コード、合成データ、微調整されたモデルをオープンソースにしています。

Recently, InPars introduced a method to efficiently use large language models (LLMs) in information retrieval tasks: via few-shot examples, an LLM is induced to generate relevant queries for documents. These synthetic query-document pairs can then be used to train a retriever. However, InPars and, more recently, Promptagator, rely on proprietary LLMs such as GPT-3 and FLAN to generate such datasets. In this work we introduce InPars-v2, a dataset generator that uses open-source LLMs and existing powerful rerankers to select synthetic query-document pairs for training. A simple BM25 retrieval pipeline followed by a monoT5 reranker finetuned on InPars-v2 data achieves new state-of-the-art results on the BEIR benchmark. To allow researchers to further improve our method, we open source the code, synthetic data, and finetuned models: https://github.com/zetaalphavector/inPars/tree/master/tpu
翻訳日:2023-01-06 14:27:33 公開日:2023-01-04
# 網膜眼底画像における完全自動動脈vein比と血管トーチュオシティ測定

Fully Automated Artery-Vein ratio and vascular tortuosity measurement in retinal fundus images ( http://arxiv.org/abs/2301.01791v1 )

ライセンス: Link先を確認
Aashis Khanal, Rolando Estrada(参考訳) 底面画像における動脈-静脈比や靭性などの異常の正確な測定は活発に研究されている課題である。 研究の大部分は、こうした特徴を独立して計算しているようだ。 しかし,本研究では,血管の異常を計測する完全自動計測手法を考案した。 本論文は, 血管トポロジー推定と抽出に関するフォローアップ論文であり, 抽出したトポロジーを用いて, 動脈-静脈のA-V分類, AV比計算, 血管のトルトゥシティ測定を完全自動化した。 既存のテクニックは部分的な領域でのみ機能する傾向にあるが,完全な血管構造を抽出する。 このトポロジーの有用性を,動脈-血管比と血管tortuosityの2つの重要な血管特徴を抽出し,検討した。

Accurate measurements of abnormalities like Artery-Vein ratio and tortuosity in fundus images is an actively researched task. Most of the research seems to compute such features independently. However, in this work, we have devised a fully automated technique to measure any vascular abnormalities. This paper is a follow-up paper on vessel topology estimation and extraction, we use the extracted topology to perform A-V state-of-the-art Artery-Vein classification, AV ratio calculation, and vessel tortuosity measurement, all fully automated. Existing techniques tend to only work on the partial region, but we extract the complete vascular structure. We have shown the usability of this topology by extracting two of the most important vascular features; Artery-Vein ratio, and vessel tortuosity.
翻訳日:2023-01-06 14:26:33 公開日:2023-01-04
# リビングイメージ:画像の構造的美しさや空間のリビングネスを計算するための再帰的アプローチ

Living Images: A Recursive Approach to Computing the Structural Beauty of Images or the Livingness of Space ( http://arxiv.org/abs/2301.01814v1 )

ライセンス: Link先を確認
Bin Jiang and Chris de Rijke(参考訳) 任意のイメージは、図形と接地という2つのコントラスト構造を持つコヒーレント構造(または全体)として意識的に認識される。 図は多数の自動生成サブ構造で構成され、大きなものよりもはるかに小さな階層構造である。 これらの部分構造を通して、像 (l) の構造美は、部分構造 (s) の数とその固有の階層 (h) の乗法によって計算できる。 この定義は、多くのサブ構造、より生きているか、より構造的に美しい、より高いサブ構造階層、より生きているか、より構造的に美しいことを意味する。 これは画像の構造美や空間の生存性に対する非再帰的なアプローチである。 本稿では,画像のすべての部分構造(図ではなく)を導出する再帰的手法を開発し,それらの部分構造を分解不能になるまで導出する過程を継続する。 異なるイテレーション(または再帰的なレベル)で導かれる全てのサブ構造は、リビング構造であり、リビングイメージの概念である。 We applied the recursive approach to a set of images and found that (1) the number of substructures of an image is far lower (3 percent on average) than the number of pixels and the centroids of the substructures can effectively capture the skeleton or saliency of the image; (2) all the images have the recursive levels more than three, indicating that they are indeed living images; (3) no more than 2 percent of the substructures are decomposable; (4) structural beauty can be measured by the recursively defined substructures, as well as their decomposable subsets. 再帰的アプローチは非再帰的アプローチよりも堅牢であることが証明されている。 再帰的アプローチと非再帰的アプローチはどちらも、都市やコミュニティにおける空間の生き方や活力を研究する強力な手段を提供する。

Any image is perceived subconsciously as a coherent structure (or whole) with two contrast substructures: figure and ground. The figure consists of numerous auto-generated substructures with an inherent hierarchy of far more smalls than larges. Through these substructures, the structural beauty of an image (L) can be computed by the multiplication of the number of substructures (S) and their inherent hierarchy (H). This definition implies that the more substructures, the more living or more structurally beautiful, and the higher hierarchy of the substructures, the more living or more structurally beautiful. This is the non-recursive approach to the structural beauty of images or the livingness of space. In this paper we develop a recursive approach, which derives all substructures of an image (instead of its figure) and continues the deriving process for those decomposable substructures until none of them are decomposable. All of the substructures derived at different iterations (or recursive levels) together constitute a living structure; hence the notion of living images. We applied the recursive approach to a set of images and found that (1) the number of substructures of an image is far lower (3 percent on average) than the number of pixels and the centroids of the substructures can effectively capture the skeleton or saliency of the image; (2) all the images have the recursive levels more than three, indicating that they are indeed living images; (3) no more than 2 percent of the substructures are decomposable; (4) structural beauty can be measured by the recursively defined substructures, as well as their decomposable subsets. The recursive approach is proved to be more robust than the non-recursive approach. The recursive approach and the non-recursive approach both provide a powerful means to study the livingness or vitality of space in cities and communities.
翻訳日:2023-01-06 14:26:19 公開日:2023-01-04
# ストリートレベルの視覚データによる大規模近隣のジェントリフィケーションの検出

Detecting Neighborhood Gentrification at Scale via Street-level Visual Data ( http://arxiv.org/abs/2301.01842v1 )

ライセンス: Link先を確認
Tianyuan Huang, Timothy Dai, Zhecheng Wang, Hesu Yoon, Hao Sheng, Andrew Y. Ng, Ram Rajagopal, Jackelyn Hwang(参考訳) 近隣のジェントリフィケーションは、個人と地域社会の両方の社会的・経済的幸福を形成する上で重要な役割を果たしている。 都市におけるゲントリフィケーションの検出にはいくつかの取り組みがなされているが、既存のアプローチは主に調査データから推定された措置に依存しており、人間のラベル付けのかなりの作業が必要であり、地域全体の特徴付けに制限がある。 本研究では,歴史的街路レベルの視覚データを組み込んで,地区の身体的外観に基づいて大規模に近隣のジェントリフィケーションを検出する手法を提案する。 提案手法の有効性を,従来の文献とケーススタディのジェントリフィケーション手法と比較し,提案手法の有効性を示す。 本手法は,既存のゲントリフィケーション指標を補完し,都市研究者や政策立案者にとって有効な資源となる可能性を秘めている。

Neighborhood gentrification plays a significant role in shaping the social and economic well-being of both individuals and communities at large. While some efforts have been made to detect gentrification in cities, existing approaches rely mainly on estimated measures from survey data, require substantial work of human labeling, and are limited in characterizing the neighborhood as a whole. We propose a novel approach to detecting neighborhood gentrification at a large-scale based on the physical appearance of neighborhoods by incorporating historical street-level visual data. We show the effectiveness of the proposed method by comparing results from our approach with gentrification measures from previous literature and case studies. Our approach has the potential to supplement existing indicators of gentrification and become a valid resource for urban researchers and policy makers.
翻訳日:2023-01-06 14:25:52 公開日:2023-01-04
# 曲線関連事故における損傷につながる重要な要因を識別する機械学習手法の検討

Exploring Machine Learning Techniques to Identify Important Factors Leading to Injury in Curve Related Crashes ( http://arxiv.org/abs/2301.01771v1 )

ライセンス: Link先を確認
Mehdi Moeinaddini, Mozhgan Pourmoradnasseri, Amnir Hadachi and Mario Cools(参考訳) 異なる要因が交通事故や事故に関連した傷害に影響を及ぼす。 これらの要因にはセグメント特性、クラッシュレベル特性、占有レベル特性、環境特性、車両レベル特性が含まれる。 これらの要因が墜落事故に与える影響についてはいくつかの研究がある。 しかし、特にカーブ関連事故に対する前頭蓋前イベントの影響について限定的な研究がなされている。 曲線関連事故に関する以前の研究の大半は、幾何学的特徴や路面設計要因の影響に焦点を当てていた。 本研究は、選択変数として重要な事故関連要因と予測変数として損傷の有無を考慮し、上記の欠点を解消しようとするものである。 本研究は、米国各州の交通事故関連データを含む国家道路交通安全局(NHTSA)のCRSSデータを用いた。 関連性はランダムフォレスト、C5.0、CHAID、ベイジアンネットワーク、ニューラルネットワーク、C\&Rツリー、Questなど、さまざまな機械学習アルゴリズムを用いて検討されている。 ランダムフォレストとSHAP値は、最も有効な変数を特定するために使用される。 他のアルゴリズムの中で最も精度が高いC5.0アルゴリズムが最終モデルの開発に使用される。 解析の結果,損傷の程度,事故前イベント,衝突前位置,交通路の説明,道路表面条件,事故の月,最初の有害事象,車両数,回避操作の試み,道路等級が曲線関連事故における車両数に影響を与えることが明らかとなった。

Different factors have effects on traffic crashes and crash-related injuries. These factors include segment characteristics, crash-level characteristics, occupant level characteristics, environment characteristics, and vehicle level characteristics. There are several studies regarding these factors' effects on crash injuries. However, limited studies have examined the effects of pre-crash events on injuries, especially for curve-related crashes. The majority of previous studies for curve-related crashes focused on the impact of geometric features or street design factors. The current study tries to eliminate the aforementioned shortcomings by considering important pre-crash events related factors as selected variables and the number of vehicles with or without injury as the predicted variable. This research used CRSS data from the National Highway Traffic Safety Administration (NHTSA), which includes traffic crash-related data for different states in the USA. The relationships are explored using different machine learning algorithms like the random forest, C5.0, CHAID, Bayesian Network, Neural Network, C\&R Tree, Quest, etc. The random forest and SHAP values are used to identify the most effective variables. The C5.0 algorithm, which has the highest accuracy rate among the other algorithms, is used to develop the final model. Analysis results revealed that the extent of the damage, critical pre-crash event, pre-impact location, the trafficway description, roadway surface condition, the month of the crash, the first harmful event, number of motor vehicles, attempted avoidance maneuver, and roadway grade affect the number of vehicles with or without injury in curve-related crashes.
翻訳日:2023-01-06 14:17:00 公開日:2023-01-04
# 質問課題に対するメタラーニングアルゴリズム

A Meta-Learning Algorithm for Interrogative Agendas ( http://arxiv.org/abs/2301.01837v1 )

ライセンス: Link先を確認
Erman Acar, Andrea De Domenico, Krishna Manoorkar and Mattia Panettiere(参考訳) 説明可能性は、より効果的に人間と作業できるインテリジェントなシステムを開発するためのai研究における重要な課題であり、主要な研究テーマである。 説明可能な知的なシステムを開発する際の明らかな選択は、人間の知識を表現するために本質的に適合した知識表現形式(例えば疑問的議題)を採用することにある。 本研究の範囲内では,質問的議題を表現するための標準的な知識表現形式主義である形式概念分析(FCA)に注目し,特に与えられた特徴の集合を分類する。 FCAベースのアルゴリズムは、分類や外れ値検出などの標準的な機械学習タスクにすでに使用されている。 これらのアルゴリズムは、そのようなタスクに単一の概念格子を用いるので、分類に使われる特徴の集合は固定される。 異なる機能のセットは、その分類において異なる重要性を持つかもしれません。 多くのアプリケーションでは、分類のための正しいアジェンダや良いアジェンダが事前に分かっていない。 本稿では,データを説明する優れた質問課題を構築するメタ学習アルゴリズムを提案する。 このようなアルゴリズムは、既存のFCAベースの分類と外れ値検出アルゴリズムを反復的に呼び出して、精度を高め、サンプルの複雑さを低減する。 提案手法は,分類に使用する特徴の異なるセットに重要度を割り当て,その結果をより説明しやすいものにする。

Explainability is a key challenge and a major research theme in AI research for developing intelligent systems that are capable of working with humans more effectively. An obvious choice in developing explainable intelligent systems relies on employing knowledge representation formalisms which are inherently tailored towards expressing human knowledge e.g., interrogative agendas. In the scope of this work, we focus on formal concept analysis (FCA), a standard knowledge representation formalism, to express interrogative agendas, and in particular to categorize objects w.r.t. a given set of features. Several FCA-based algorithms have already been in use for standard machine learning tasks such as classification and outlier detection. These algorithms use a single concept lattice for such a task, meaning that the set of features used for the categorization is fixed. Different sets of features may have different importance in that categorization, we call a set of features an agenda. In many applications a correct or good agenda for categorization is not known beforehand. In this paper, we propose a meta-learning algorithm to construct a good interrogative agenda explaining the data. Such algorithm is meant to call existing FCA-based classification and outlier detection algorithms iteratively, to increase their accuracy and reduce their sample complexity. The proposed method assigns a measure of importance to different set of features used in the categorization, hence making the results more explainable.
翻訳日:2023-01-06 14:01:16 公開日:2023-01-04
# PACO: 共通オブジェクトの部分と属性

PACO: Parts and Attributes of Common Objects ( http://arxiv.org/abs/2301.01795v1 )

ライセンス: Link先を確認
Vignesh Ramanathan, Anmol Kalia, Vladan Petrovic, Yi Wen, Baixue Zheng, Baishan Guo, Rui Wang, Aaron Marquez, Rama Kovvuri, Abhishek Kadian, Amir Mousavi, Yiwen Song, Abhimanyu Dubey, Dhruv Mahajan(参考訳) オブジェクトモデルは、ただのカテゴリラベルの予測から、オブジェクトインスタンスの詳細な説明まで、徐々に進歩しています。 これは、従来のオブジェクトマスクを超えて、パートマスクや属性のようなよりリッチなアノテーションを提供する大きなデータセットの必要性を動機付ける。 したがって、PACO: Parts and Attributes of Common Objectsを紹介する。 75のオブジェクトカテゴリ、456のオブジェクトパーツカテゴリ、55の属性がイメージ(LVIS)とビデオ(Ego4D)データセットにまたがっている。 260kのオブジェクトボックスにアノテートされた641kのパートマスクも提供しています。 評価指標を設計し、データセット上の3つのタスクのベンチマーク結果を提供する: 部分マスクのセグメンテーション、オブジェクトと属性の予測、ゼロショットのインスタンス検出。 データセット、モデル、コードはhttps://github.com/facebookresearch/paco.comでオープンソース化されている。

Object models are gradually progressing from predicting just category labels to providing detailed descriptions of object instances. This motivates the need for large datasets which go beyond traditional object masks and provide richer annotations such as part masks and attributes. Hence, we introduce PACO: Parts and Attributes of Common Objects. It spans 75 object categories, 456 object-part categories and 55 attributes across image (LVIS) and video (Ego4D) datasets. We provide 641K part masks annotated across 260K object boxes, with roughly half of them exhaustively annotated with attributes as well. We design evaluation metrics and provide benchmark results for three tasks on the dataset: part mask segmentation, object and part attribute prediction and zero-shot instance detection. Dataset, models, and code are open-sourced at https://github.com/facebookresearch/paco.
翻訳日:2023-01-06 14:00:53 公開日:2023-01-04
# 機械学習を用いたALSデータと空中画像の組み合わせによる単樹落葉段の自動分類

Automatic Classification of Single Tree Decay Stages from Combined ALS Data and Aerial Imagery using Machine Learning ( http://arxiv.org/abs/2301.01841v1 )

ライセンス: Link先を確認
Tsz Chung Wong, Abubakar Sani-Mohammed, Wei Yao, Marco Heurich(参考訳) 森林の健康を理解することは森林生態系の保全にとって非常に重要である。 したがって、森林の健康状態のモニタリングは、森林の長期保存と持続可能な管理に不可欠である。 この点において, 死木材の量と品質を評価することは, 生物多様性の指標として好まれる。 リモートセンシングベースの機械学習技術は、森林在庫において前例のない精度で、より効率的で持続可能なことが証明されている。 しかし、これらの技術の適用は、死んだ木材のマッピングに関してはまだ初期段階にある。 本研究では,3次元クラウドベース深層学習(PointNet),畳み込みニューラルネットワーク(CNN),ランダムフォレスト(RF)の3つの手法を用いて,空中レーザー走査(ALS)点群とCIR画像から,個々の針葉樹を5つの崩壊段階(ライブ,ダウン,デッド,バーク,クリーン)に自動分類した。 全てのモデルは有望な結果を達成し、CNN、RF、PointNetの総合精度は90.9%、90.6%、80.6%に達した。 実験の結果,画像ベースアプローチは3dポイントの雲ベースの手法よりも顕著に優れ,スペクトル画像のテクスチャは樹木の崩壊を分類する成功に最も寄与することが明らかとなった。 そこで本モデルは, 機械/深度学習による近代的空中リモートセンシング技術を用いて, 単木崩壊段数の自動決定と枯木量および品質のランドスケープ評価に利用することができる。 提案手法は,森林生態系の生物多様性をモニタリングするための重要かつ厳密なツールとして有用である。

Understanding forest health is of great importance for the conservation of the integrity of forest ecosystems. The monitoring of forest health is, therefore, indispensable for the long-term conservation of forests and their sustainable management. In this regard, evaluating the amount and quality of dead wood is of utmost interest as they are favorable indicators of biodiversity. Apparently, remote sensing-based machine learning techniques have proven to be more efficient and sustainable with unprecedented accuracy in forest inventory. However, the application of these techniques is still in its infancy with respect to dead wood mapping. This study investigates for the first time the automatic classification of individual coniferous trees into five decay stages (live, declining, dead, loose bark, and clean) from combined airborne laser scanning (ALS) point clouds and CIR images using three Machine Learning methods - 3D point cloud-based deep learning (PointNet), Convolutional Neural Network (CNN), and Random Forest (RF). All models achieved promising results, reaching overall accuracy (OA) up to 90.9%, 90.6%, and 80.6% for CNN, RF, and PointNet, respectively. The experimental results reveal that the image-based approach notably outperformed the 3D point cloud-based one, while spectral image texture is of the highest relevance to the success of categorizing tree decay. Our models could therefore be used for automatic determination of single tree decay stages and landscape-wide assessment of dead wood amount and quality using modern airborne remote sensing techniques with machine/deep learning. The proposed method can contribute as an important and rigorous tool for monitoring biodiversity in forest ecosystems.
翻訳日:2023-01-06 14:00:39 公開日:2023-01-04
# 未知のユーティリティ関数によるネットワークユーティリティの最大化: 分散データ駆動バイレベル最適化アプローチ

Network Utility Maximization with Unknown Utility Functions: A Distributed, Data-Driven Bilevel Optimization Approach ( http://arxiv.org/abs/2301.01801v1 )

ライセンス: Link先を確認
Kaiyi Ji and Lei Ying(参考訳) 公平なリソース割り当ては、通信ネットワークにおける最も重要なトピックの1つである。 既存のソリューションはほとんどの場合、各ユーザユーティリティ関数が知られて凹凸であると仮定する。 本稿では,ユーティリティ機能が未知である場合,ユーザに対してどのようにリソースを割り当てるか,という問いに答える。 この答えは、ユーザユーティリティが複雑でクローズドフォームが入手困難である、次世代のAI対応通信ネットワークにおいてますます重要になっている。 本稿では,分散およびデータ駆動の双方向最適化手法を用いて,分散ネットワークユーティリティ最大化(NUM)アルゴリズムと,データ駆動学習アルゴリズムを用いて,真のネットワークユーティリティの総和を最大化するための最良サロゲートユーティリティ関数を求める。 提案アルゴリズムは、データサンプル(ユーティリティ値または勾配値)から学習し、サロゲートユーティリティ関数を自動チューニングして真のネットワークユーティリティを最大化するので、未知のユーティリティ関数で機能する。 一般ネットワークでは,提案アルゴリズムの非凹凸汎関数による非漸近収束率を定式化する。 提案手法の有効性を実世界のネットワークで検証し,提案手法の有効性を検証した。

Fair resource allocation is one of the most important topics in communication networks. Existing solutions almost exclusively assume each user utility function is known and concave. This paper seeks to answer the following question: how to allocate resources when utility functions are unknown, even to the users? This answer has become increasingly important in the next-generation AI-aware communication networks where the user utilities are complex and their closed-forms are hard to obtain. In this paper, we provide a new solution using a distributed and data-driven bilevel optimization approach, where the lower level is a distributed network utility maximization (NUM) algorithm with concave surrogate utility functions, and the upper level is a data-driven learning algorithm to find the best surrogate utility functions that maximize the sum of true network utility. The proposed algorithm learns from data samples (utility values or gradient values) to autotune the surrogate utility functions to maximize the true network utility, so works for unknown utility functions. For the general network, we establish the nonasymptotic convergence rate of the proposed algorithm with nonconcave utility functions. The simulations validate our theoretical results and demonstrate the great effectiveness of the proposed method in a real-world network.
翻訳日:2023-01-06 13:52:04 公開日:2023-01-04
# NODAGS-Flow:非線形周期因果構造学習

NODAGS-Flow: Nonlinear Cyclic Causal Structure Learning ( http://arxiv.org/abs/2301.01849v1 )

ライセンス: Link先を確認
Muralikrishnna G. Sethuraman, Romain Lopez, Rahul Mohan, Faramarz Fekri, Tommaso Biancalani, Jan-Christian H\"utter(参考訳) 変数間の因果関係の学習は統計学においてよく研究された問題であり、科学において多くの重要な応用がある。 しかし、既存のアルゴリズムの多くは、根底にある因果グラフが非循環であると仮定している。 これは因果推論と推論に関する理論的発展を開発するための便利なフレームワークであるが、フィードバックループが一般的である(生物学的システムなど)ため、基礎となるモデリング仮定は実システムでは破られる可能性が高い。 巡回因果モデルを探索する手法はいくつかあるが、通常はある種の線形性に依存しており、これは制限でもあるか、あるいは明確な確率モデルを持たない。 本研究では,NODAGS-Flowと呼ばれる介入データから非線形巡回因果グラフモデルを学習するための新しいフレームワークを提案する。 推定には残差正規化流の手法を応用し, 直接帰属最適化による推定を行う。 合成実験と単セル高濃度摂動スクリーニングデータの適用により,構造回復および予測性能に関する最先端手法と比較して,本手法による大幅な性能向上を示す。

Learning causal relationships between variables is a well-studied problem in statistics, with many important applications in science. However, modeling real-world systems remain challenging, as most existing algorithms assume that the underlying causal graph is acyclic. While this is a convenient framework for developing theoretical developments about causal reasoning and inference, the underlying modeling assumption is likely to be violated in real systems, because feedback loops are common (e.g., in biological systems). Although a few methods search for cyclic causal models, they usually rely on some form of linearity, which is also limiting, or lack a clear underlying probabilistic model. In this work, we propose a novel framework for learning nonlinear cyclic causal graphical models from interventional data, called NODAGS-Flow. We perform inference via direct likelihood optimization, employing techniques from residual normalizing flows for likelihood estimation. Through synthetic experiments and an application to single-cell high-content perturbation screening data, we show significant performance improvements with our approach compared to state-of-the-art methods with respect to structure recovery and predictive performance.
翻訳日:2023-01-06 13:51:45 公開日:2023-01-04
# カテゴリー変数に対する距離実装のための一般的な枠組み

A general framework for implementing distances for categorical variables ( http://arxiv.org/abs/2301.02190v1 )

ライセンス: Link先を確認
Michel van de Velden and Alfonso Iodice D'Enza and Angelos Markos and Carlo Cavicchia(参考訳) 変数の集合によって測定される特定の性質に関して対象が互いに異なる程度は、多くの統計手法において重要な役割を果たす。 例えば、分類、クラスタリング、データ可視化といった方法は、すべて観測値の違いを定量化する必要がある。 このような差異の定量化を距離と呼ぶことができる。 距離の適切な定義は、データの性質と目の前の問題に依存する。 数値変数間の距離については、観測された差の大きさに依存する多くの定義が存在する。 カテゴリーデータでは、観測された差の大きさの直接的な定量化がないため、距離の定義はより複雑である。 その結果、分類変数に基づいて差を測定するために使用できる多くの提案が存在する。 本稿では,分類変数の観測点間の距離を効率よく,透過的に実装できる汎用フレームワークを提案する。 いくつかの既存の距離をフレームワークに組み込むことができることを示す。 さらに,このフレームワークは,新たな距離定式化の導入を極めて自然に導き,柔軟性,ケース,データ固有の距離定義の実装を可能にしている。 さらに、教師付き分類設定では、応答変数と予測変数の関係を組み込んだ距離を構築し、したがって距離に基づく分類器の性能を向上させることができる。

The degree to which subjects differ from each other with respect to certain properties measured by a set of variables, plays an important role in many statistical methods. For example, classification, clustering, and data visualization methods all require a quantification of differences in the observed values. We can refer to the quantification of such differences, as distance. An appropriate definition of a distance depends on the nature of the data and the problem at hand. For distances between numerical variables, there exist many definitions that depend on the size of the observed differences. For categorical data, the definition of a distance is more complex, as there is no straightforward quantification of the size of the observed differences. Consequently, many proposals exist that can be used to measure differences based on categorical variables. In this paper, we introduce a general framework that allows for an efficient and transparent implementation of distances between observations on categorical variables. We show that several existing distances can be incorporated into the framework. Moreover, our framework quite naturally leads to the introduction of new distance formulations and allows for the implementation of flexible, case and data specific distance definitions. Furthermore, in a supervised classification setting, the framework can be used to construct distances that incorporate the association between the response and predictor variables and hence improve the performance of distance-based classifiers.
翻訳日:2023-01-06 13:50:59 公開日:2023-01-04
# Chat2Map: マルチエゴ会話からの効率的なシーンマッピング

Chat2Map: Efficient Scene Mapping from Multi-Ego Conversations ( http://arxiv.org/abs/2301.02184v1 )

ライセンス: Link先を確認
Sagnik Majumder, Hao Jiang, Pierre Moulon, Ethan Henderson, Paul Calamia, Kristen Grauman, Vamsi Krishna Ithapu(参考訳) 複数の自我中心の視点から撮影した会話ビデオは、コスト効率のよい方法でシーンの地図を明らかにすることができるのか? 自然会話における参加者の自己中心的視聴覚観察において共有情報を活用し,これまで認識されていなかった3次元環境の地図を効率的に構築すること。 私たちの仮説では、複数の(エゴス)人がシーンを移動して互いに話し合うと、シーンの見えない領域を明らかにするのに役立つリッチなオーディオ視覚的手がかりが得られます。 エゴセントリックなビジュアルストリームを継続的に処理するコストが高いため、冗長性を最小化し、電力使用を減らすために、視覚情報のサンプリングを積極的に調整する方法をさらに検討する。 そこで我々は,共有シーンマッパーと協調してカメラを選択的にオンにし,空間を効率よくグラフ化する,オーディオ視覚深部強化学習手法を提案する。 実世界の映像だけでなく,3Dシーンのための最先端オーディオ映像シミュレータを用いたアプローチの評価を行った。 このモデルは,従来の最先端マッピング手法を上回り,高いコスト・精度のトレードオフを実現する。 プロジェクト: http://vision.cs.utexas.edu/projects/chat2map

Can conversational videos captured from multiple egocentric viewpoints reveal the map of a scene in a cost-efficient way? We seek to answer this question by proposing a new problem: efficiently building the map of a previously unseen 3D environment by exploiting shared information in the egocentric audio-visual observations of participants in a natural conversation. Our hypothesis is that as multiple people ("egos") move in a scene and talk among themselves, they receive rich audio-visual cues that can help uncover the unseen areas of the scene. Given the high cost of continuously processing egocentric visual streams, we further explore how to actively coordinate the sampling of visual information, so as to minimize redundancy and reduce power use. To that end, we present an audio-visual deep reinforcement learning approach that works with our shared scene mapper to selectively turn on the camera to efficiently chart out the space. We evaluate the approach using a state-of-the-art audio-visual simulator for 3D scenes as well as real-world video. Our model outperforms previous state-of-the-art mapping methods, and achieves an excellent cost-accuracy tradeoff. Project: http://vision.cs.utexas.edu/projects/chat2map.
翻訳日:2023-01-06 13:50:42 公開日:2023-01-04
# NOTEARSによる因果構造学習におけるエキスパート知識の評価

Evaluation of Induced Expert Knowledge in Causal Structure Learning by NOTEARS ( http://arxiv.org/abs/2301.01817v1 )

ライセンス: Link先を確認
Jawad Chowdhury, Rezaur Rashid, Gabriel Terejanu(参考訳) 因果モデリングは、様々な状況下で予測と推論を生成する強力な対実的推論と介入機構を提供する。 しかし、観測データを用いた因果探索は、観測されていない背景因子、有限サンプリング、およびデータ分布の変化による非自明な課題である。 これは原因-影響関係を早める可能性がある。 これらの課題を緩和するために、研究者は既知の因果関係を持つ因果学習を増強する。 本研究の目的は、非パラメトリックNOTEARSの定式化に使用される追加制約の形で、専門家の知識が因果関係に与える影響を研究することである。 我々は、異なるタイプの知識を用いてモデルをバイアスする比較分析の包括的セットを提供する。 私たちはそれを見つけました i)NOTEARSモデルの誤りを修正する知識は統計的に重要な改善につながる可能性がある。 (ii)アクティブエッジに対する制約は、非アクティブエッジよりも因果発見にプラスの影響が大きい。 (iii) 誘導された知識は、予想よりも平均的に不正確なアクティブエッジ及び/または不アクティブエッジを補正しない。 また、実世界のデータセットにおけるモデルの振る舞いとドメイン知識の有効性を実証する。

Causal modeling provides us with powerful counterfactual reasoning and interventional mechanism to generate predictions and reason under various what-if scenarios. However, causal discovery using observation data remains a nontrivial task due to unobserved confounding factors, finite sampling, and changes in the data distribution. These can lead to spurious cause-effect relationships. To mitigate these challenges in practice, researchers augment causal learning with known causal relations. The goal of the paper is to study the impact of expert knowledge on causal relations in the form of additional constraints used in the formulation of the nonparametric NOTEARS. We provide a comprehensive set of comparative analyses of biasing the model using different types of knowledge. We found that (i) knowledge that corrects the mistakes of the NOTEARS model can lead to statistically significant improvements, (ii) constraints on active edges have a larger positive impact on causal discovery than inactive edges, and surprisingly, (iii) the induced knowledge does not correct on average more incorrect active and/or inactive edges than expected. We also demonstrate the behavior of the model and the effectiveness of domain knowledge on a real-world dataset.
翻訳日:2023-01-06 13:42:37 公開日:2023-01-04
# 学習と説明を行うエージェント間の理解可能なインタラクションプロトコル

A Protocol for Intelligible Interaction Between Agents That Learn and Explain ( http://arxiv.org/abs/2301.01819v1 )

ライセンス: Link先を確認
Ashwin Srinivasan, Michael Bain, A. Baskar, Enrico Coiera(参考訳) 近年の工学の発展により、機械学習(ml)は、自律エージェントの設計における歴史的ルーツを超えて広く適用可能な、強力なデータ分析形式として出現した。 しかし、人間とMLシステムの相互作用には、比較的注意が払われていない。 説明可能なMLに関する最近の進歩は、どのようにしてMLシステムが結論に達したかの視覚的およびテキスト的情報を提供することによって、この問題に対処している。 本稿では,人間とmlシステム間の相互作用を,学習と説明の可能なエージェント間の相互作用のより広い文脈で見る。 この設定の中では、予測の1回限りの説明よりも、情報に対する双方向の知性によって特徴づけられる相互作用を見る方がより有益である、と論じる。 通信プロトコルの特性として双方向のインテリジェンスを定式化する。 このプロトコルの開発は、mlを人間のループで使用する意思決定支援システムのための一連の「知性公理」によって動機づけられている。 公理は、次のように主張するのに十分な基準として意図されている。 a) 人間が提供した情報は,mlシステムに理解可能であること,及び b)MLシステムが提供する情報は、人間には理解できない。 公理は、学習と説明が可能なエージェント間の一般的な同期相互作用モデルの設計を知らせる。 エージェント間の互換性の条件を特定し,通信プロトコルの特性としてWeak and Strong Two-Way Intelligibilityを定義する。

Recent engineering developments have seen the emergence of Machine Learning (ML) as a powerful form of data analysis with widespread applicability beyond its historical roots in the design of autonomous agents. However, relatively little attention has been paid to the interaction between people and ML systems. Recent developments on Explainable ML address this by providing visual and textual information on how the ML system arrived at a conclusion. In this paper we view the interaction between humans and ML systems within the broader context of interaction between agents capable of learning and explanation. Within this setting, we argue that it is more helpful to view the interaction as characterised by two-way intelligibility of information rather than once-off explanation of a prediction. We formulate two-way intelligibility as a property of a communication protocol. Development of the protocol is motivated by a set of `Intelligibility Axioms' for decision-support systems that use ML with a human-in-the-loop. The axioms are intended as sufficient criteria to claim that: (a) information provided by a human is intelligible to an ML system; and (b) information provided by an ML system is intelligible to a human. The axioms inform the design of a general synchronous interaction model between agents capable of learning and explanation. We identify conditions of compatibility between agents that result in bounded communication, and define Weak and Strong Two-Way Intelligibility between agents as properties of the communication protocol.
翻訳日:2023-01-06 13:42:21 公開日:2023-01-04
# デノボ分子生成のためのフラグメントに基づくt-SMILES

Fragment-based t-SMILES for de novo molecular generation ( http://arxiv.org/abs/2301.01829v1 )

ライセンス: Link先を確認
Juan-Ni Wu, Tong Wang, Yue Chen, Li-Juan Tang, Hai-Long Wu, Ru-Qin Yu(参考訳) 現在、シーケンスベースモデルとグラフベースモデルは、よく使われている2つの分子生成モデルである。 本研究では, フラグメント化された分子グラフから生成した全二分分子木上に, SMILES型文字列を用いて, 汎用的, 断片的, 階層的な分子表現 t-SMILES (tree-based SMILES) を導入する。 提案したt-SMILESは,分子トポロジ構造と強力な学習能力を有する言語モデルに注目するグラフモデルの利点を組み合わせたものである。 JTVAEと化学反応に基づくBRICS分子分解アルゴリズムを用いた実験は、Zinc、QM9、ChEMBLデータセットを含む3つの一般的な分子データセット上の配列ベースの自己回帰生成モデルを用いて、t-SMILESベースのモデルは、以前提案されたフラグメントベースのモデルよりも大幅に優れ、古典的なSMILESやグラフベースのアプローチと競合していることを示している。 最も重要なことは、フラグメントに基づく分子設計の新しい視点を提案することである。 したがって、SOTAの強力なシーケンスベースのソリューションは、フラグメントベースの分子タスクに容易に適用できる。

At present, sequence-based and graph-based models are two of popular used molecular generative models. In this study, we introduce a general-purposed, fragment-based, hierarchical molecular representation named t-SMILES (tree-based SMILES) which describes molecules using a SMILES-type string obtained by doing breadth first search (BFS) on full binary molecular tree formed from fragmented molecular graph. The proposed t-SMILES combines the advantages of graph model paying more attention to molecular topology structure and language model possessing powerful learning ability. Experiments with feature tree rooted JTVAE and chemical reaction-based BRICS molecular decomposing algorithms using sequence-based autoregressive generation models on three popular molecule datasets including Zinc, QM9 and ChEMBL datasets indicate that t-SMILES based models significantly outperform previously proposed fragment-based models and being competitive with classical SMILES based and graph-based approaches. Most importantly, we proposed a new perspective for fragment based molecular designing. Hence, SOTA powerful sequence-based solutions could be easily applied for fragment based molecular tasks.
翻訳日:2023-01-06 13:42:04 公開日:2023-01-04
# Cox-Weibullニューラルネットを用いたベイズウェポンシステムの信頼性モデリング

Bayesian Weapon System Reliability Modeling with Cox-Weibull Neural Network ( http://arxiv.org/abs/2301.01850v1 )

ライセンス: Link先を確認
Michael Potter, Benny Cheng(参考訳) 本稿では,deepsurv のようなニューラルネットワークを用いたパラメータ化 cox-weibull 信頼性モデルに兵器システム機能(武器製造装置,展開時間と位置,貯蔵時間と位置など)を統合することで,予測メンテナンスを改善することを提案する。 並行して,weibullパラメータをニューラルネットワークでパラメータ化し,モンテカルロ(mc)ドロップアウトなどのドロップアウト手法を比較目的に用いたベイズモデルを開発した。 兵器システムテストにおけるデータ収集手順により,モンテカルロマルコフ連鎖 (mcmc) を組み込んだ,勾配降下最適化時のweibullパラメータのサンプリングを行う。 我々は、受信者曲線(ROC)、曲線下面積(AUC)、Fスコアなどの分類指標を比較し、我々のモデルは一般にXGBoostのような従来の強力なモデルと現在の標準条件のWeibull確率密度推定モデルよりも優れていることを示す。

We propose to integrate weapon system features (such as weapon system manufacturer, deployment time and location, storage time and location, etc.) into a parameterized Cox-Weibull reliability model via a neural network, like DeepSurv, to improve predictive maintenance. In parallel, we develop an alternative Bayesian model by parameterizing the Weibull parameters with a neural network and employing dropout methods such as Monte-Carlo (MC)-dropout for comparative purposes. Due to data collection procedures in weapon system testing we employ a novel interval-censored log-likelihood which incorporates Monte-Carlo Markov Chain (MCMC) sampling of the Weibull parameters during gradient descent optimization. We compare classification metrics such as receiver operator curve (ROC), area under the curve (AUC), and F scores and show that our model generally outperforms traditional powerful models such as XGBoost as well as the current standard conditional Weibull probability density estimation model.
翻訳日:2023-01-06 13:41:38 公開日:2023-01-04
# 連続学習のための逐次ベイズ推論について

On Sequential Bayesian Inference for Continual Learning ( http://arxiv.org/abs/2301.01828v1 )

ライセンス: Link先を確認
Samuel Kessler, Adam Cobb, Tim G. J. Rudner, Stefan Zohren, Stephen J. Roberts(参考訳) 連続ベイズ推論は、過去のタスクの破滅的な忘れ込みを防止し、新しいタスクを学ぶ前に情報を提供するために連続学習に使用できる。 我々はシーケンシャルベイズ推定を再検討し、真の後方へのアクセスがベイズニューラルネットワークの破滅的な忘れを防げるかどうかを検証する。 これを行うために、ハミルトンモンテカルロを用いて連続ベイズ推論を行う。 我々は、ハミルトンモンテカルロサンプルに密度推定器を組み込むことにより、新しいタスクの先行として後部を伝播する。 ニューラルネットワークにおける逐次ベイズ推論の実行の困難さを示す破滅的な忘れ込みを防ぐには,このアプローチは失敗する。 そこで, 逐次ベイズ推論とCLの簡単な解析例を考察し, 正確な推論にもかかわらず, 準最適連続学習性能に繋がるモデル不特定の問題を強調した。 さらに、タスクデータの不均衡がいかに忘れてしまうかについて議論する。 これらの制限から、ベイズニューラルネットワークの重みに対する逐次ベイズ推定に頼るのではなく、連続的な学習生成過程の確率論的モデルが必要であると論じる。 そこで本研究では,古典的ベイズ連続学習法と競合する,原型的ベイズ連続学習という単純なベースラインを提案する。

Sequential Bayesian inference can be used for continual learning to prevent catastrophic forgetting of past tasks and provide an informative prior when learning new tasks. We revisit sequential Bayesian inference and test whether having access to the true posterior is guaranteed to prevent catastrophic forgetting in Bayesian neural networks. To do this we perform sequential Bayesian inference using Hamiltonian Monte Carlo. We propagate the posterior as a prior for new tasks by fitting a density estimator on Hamiltonian Monte Carlo samples. We find that this approach fails to prevent catastrophic forgetting demonstrating the difficulty in performing sequential Bayesian inference in neural networks. From there we study simple analytical examples of sequential Bayesian inference and CL and highlight the issue of model misspecification which can lead to sub-optimal continual learning performance despite exact inference. Furthermore, we discuss how task data imbalances can cause forgetting. From these limitations, we argue that we need probabilistic models of the continual learning generative process rather than relying on sequential Bayesian inference over Bayesian neural network weights. In this vein, we also propose a simple baseline called Prototypical Bayesian Continual Learning, which is competitive with state-of-the-art Bayesian continual learning methods on class incremental continual learning vision benchmarks.
翻訳日:2023-01-06 13:33:53 公開日:2023-01-04
# 教師なしマニフォールド線形化とクラスタリング

Unsupervised Manifold Linearizing and Clustering ( http://arxiv.org/abs/2301.01805v1 )

ライセンス: Link先を確認
Tianjiao Ding, Shengbang Tong, Kwan Ho Ryan Chan, Xili Dai, Yi Ma, Benjamin D. Haeffele(参考訳) 低次元多様体の結合に近接するクラスタリングデータは、各多様体をクラスタとして、機械学習の基本的な問題である。 多様体が線型部分空間であると仮定されるとき、多くの手法は、過去20年間に広く研究されてきた低ランクおよびスパース先行を用いて成功する。 残念ながら、ほとんどの実世界のデータセットは線形部分空間によって十分に近似できない。 一方、元データが非線型多様体であるにもかかわらず、写像によって変換されたデータが線型部分空間の和集合にあるような特徴写像を学習することで多様体を識別するいくつかの研究が提案されている。 しかしながら、ほとんどの研究は、サンプルのクラスタへのメンバシップに関する知識を前提とするか、あるいは自明な表現を学ぶことが示される。 本稿では,クラスタ化と最大符号化率削減によるサブスペース結合表現の学習を同時に行うことを提案する。 合成および現実的なデータセットの実験により、提案手法は、よりスケーラブルで幾何学的に意味のある表現を学習しながら、最先端の代替品に匹敵するクラスタリング精度を実現する。

Clustering data lying close to a union of low-dimensional manifolds, with each manifold as a cluster, is a fundamental problem in machine learning. When the manifolds are assumed to be linear subspaces, many methods succeed using low-rank and sparse priors, which have been studied extensively over the past two decades. Unfortunately, most real-world datasets can not be well approximated by linear subspaces. On the other hand, several works have proposed to identify the manifolds by learning a feature map such that the data transformed by the map lie in a union of linear subspaces, even though the original data are from non-linear manifolds. However, most works either assume knowledge of the membership of samples to clusters, or are shown to learn trivial representations. In this paper, we propose to simultaneously perform clustering and learn a union-of-subspace representation via Maximal Coding Rate Reduction. Experiments on synthetic and realistic datasets show that the proposed method achieves clustering accuracy comparable with state-of-the-art alternatives, while being more scalable and learning geometrically meaningful representations.
翻訳日:2023-01-06 13:31:34 公開日:2023-01-04
# パラメータ効率の良いファインチューニング設計空間

Parameter-Efficient Fine-Tuning Design Spaces ( http://arxiv.org/abs/2301.01821v1 )

ライセンス: Link先を確認
Jiaao Chen, Aston Zhang, Xingjian Shi, Mu Li, Alex Smola, Diyi Yang(参考訳) パラメータ効率のよい微調整は、少ないトレーニング可能なパラメータを使って、微調整に匹敵するパフォーマンスを達成することを目的としている。 いくつかの戦略(Adapters、プレフィックスチューニング、BitFit、LoRAなど)が提案されている。 しかし、それらのデザインは別々に手作りされており、パラメーター効率の良い微調整のためのデザインパターンが存在するかどうかは不明である。 そこで,我々はパラメータ効率の良い微調整設計パラダイムを提案し,異なる実験環境に適用可能な設計パターンを探索する。 個別のチューニング戦略を設計する代わりに、チューニング構造やチューニング戦略をパラメータ化するパラメータ効率の良い微調整設計空間を導入する。 具体的には、レイヤグループ化、トレーニング可能なパラメータ割り当て、チューニング可能なグループ、戦略割り当ての4つのコンポーネントによって特徴づけられる。 初期設計空間から始めて、各設計選択のモデル品質に基づいて空間を段階的に洗練し、これらの4つのコンポーネントに対して各ステージでグリーディ選択を行う。 以下のデザインパターンを発見します (i)スピンドルパターンの群層 2) 訓練可能なパラメータの数を均一にレイヤに割り当てること。 (iii)すべてのグループをチューニングする。 (4)異なるグループに適切なチューニング戦略を割り当てる。 これらの設計パターンは、新しいパラメータ効率の微調整手法をもたらす。 実験により,これらの手法は,異なるバックボーンモデルと自然言語処理における異なるタスク間のパラメータ効率の高い微調整戦略を連続的に,かつ著しく上回ることを示した。

Parameter-efficient fine-tuning aims to achieve performance comparable to fine-tuning, using fewer trainable parameters. Several strategies (e.g., Adapters, prefix tuning, BitFit, and LoRA) have been proposed. However, their designs are hand-crafted separately, and it remains unclear whether certain design patterns exist for parameter-efficient fine-tuning. Thus, we present a parameter-efficient fine-tuning design paradigm and discover design patterns that are applicable to different experimental settings. Instead of focusing on designing another individual tuning strategy, we introduce parameter-efficient fine-tuning design spaces that parameterize tuning structures and tuning strategies. Specifically, any design space is characterized by four components: layer grouping, trainable parameter allocation, tunable groups, and strategy assignment. Starting from an initial design space, we progressively refine the space based on the model quality of each design choice and make greedy selection at each stage over these four components. We discover the following design patterns: (i) group layers in a spindle pattern; (ii) allocate the number of trainable parameters to layers uniformly; (iii) tune all the groups; (iv) assign proper tuning strategies to different groups. These design patterns result in new parameter-efficient fine-tuning methods. We show experimentally that these methods consistently and significantly outperform investigated parameter-efficient fine-tuning strategies across different backbone models and different tasks in natural language processing.
翻訳日:2023-01-06 13:26:06 公開日:2023-01-04
# MessageNet:自然言語処理とメタデータを用いたメッセージ分類

MessageNet: Message Classification using Natural Language Processing and Meta-data ( http://arxiv.org/abs/2301.01808v1 )

ライセンス: Link先を確認
Adar Kahana and Oren Elisha(参考訳) 本稿では,メッセージ分類のための新しいDeep Learning(DL)アプローチを提案する。 提案手法は,現在最先端の自然言語処理(NLP)ビルディングブロックと,送信者情報,タイムスタンプ,添付画像,オーディオ,アフィリエイトなどのメッセージで一般的に利用できるメタデータ入力を注入する新しい手法を組み合わせたものである。 論文全体を通して示すように、メッセージ中のすべての利用可能なチャンネルを活用することで、単なるテキストを超えて、より良い表現とより高い分類精度が得られる。 メッセージ表現を実現するために、データ型に適したニューラルネットワークアーキテクチャにおいて、各入力タイプを専用ブロックで処理する。 このような実装により、すべてのブロックを同時にトレーニングし、ネットワーク内のクロスチャネル機能を形成することができる。 実験のセクションでは、メッセージのメタデータがテキストからのみ抽出できない追加情報を持っている場合があり、この情報を使用するとパフォーマンスが向上することを示している。 さらに,本手法は,テキスト分類器にメタデータを注入する他の手法よりも優れていることを示す。

In this paper we propose a new Deep Learning (DL) approach for message classification. Our method is based on the state-of-the-art Natural Language Processing (NLP) building blocks, combined with a novel technique for infusing the meta-data input that is typically available in messages such as the sender information, timestamps, attached image, audio, affiliations, and more. As we demonstrate throughout the paper, going beyond the mere text by leveraging all available channels in the message, could yield an improved representation and higher classification accuracy. To achieve message representation, each type of input is processed in a dedicated block in the neural network architecture that is suitable for the data type. Such an implementation enables training all blocks together simultaneously, and forming cross channels features in the network. We show in the Experiments Section that in some cases, message's meta-data holds an additional information that cannot be extracted just from the text, and when using this information we achieve better performance. Furthermore, we demonstrate that our multi-modality block approach outperforms other approaches for injecting the meta data to the the text classifier.
翻訳日:2023-01-06 13:24:30 公開日:2023-01-04
# MonoEdge:ローカル視点を用いたモノクロ3Dオブジェクト検出

MonoEdge: Monocular 3D Object Detection Using Local Perspectives ( http://arxiv.org/abs/2301.01802v1 )

ライセンス: Link先を確認
Minghan Zhu, Lingting Ge, Panqu Wang, Huei Peng(参考訳) 本稿では,各物体の局所的視点効果を利用した単眼的3次元物体検出手法を提案する。 大きさや位置の変動として表されるグローバルな視点効果は、モノクロ3次元検出に広く活用されているが、局所的な視点は長い間見過ごされてきた。 我々は,局所的視点を考慮した局所的形状歪みのパラメータ化として,新たに定義された変数keyedge-ratiosをレグレッシブする局所的視点モジュールを設計し,それから対象の深さとヨー角を導出する。 理論的には、このモジュールはオブジェクトの画像のピクセルサイズや位置に依存しないので、カメラ固有のパラメータには依存しない。 このモジュールを既存のモノキュラー3dオブジェクト検出フレームワークにプラグインすることで,局所的視点歪みとグローバルな視点効果を組み込んだモノキュラー3d推論を行い,複数のデータセットにおける強力なベースラインメソッドに対して,その効果と優れた性能を示す。

We propose a novel approach for monocular 3D object detection by leveraging local perspective effects of each object. While the global perspective effect shown as size and position variations has been exploited for monocular 3D detection extensively, the local perspectives has long been overlooked. We design a local perspective module to regress a newly defined variable named keyedge-ratios as the parameterization of the local shape distortion to account for the local perspective, and derive the object depth and yaw angle from it. Theoretically, this module does not rely on the pixel-wise size or position in the image of the objects, therefore independent of the camera intrinsic parameters. By plugging this module in existing monocular 3D object detection frameworks, we incorporate the local perspective distortion with global perspective effect for monocular 3D reasoning, and we demonstrate the effectiveness and superior performance over strong baseline methods in multiple datasets.
翻訳日:2023-01-06 13:23:53 公開日:2023-01-04
# ヒューリスティック多エージェント計画によるエージェント協調の最適化

Optimizing Agent Collaboration through Heuristic Multi-Agent Planning ( http://arxiv.org/abs/2301.01246v2 )

ライセンス: Link先を確認
Nitsan Soffair(参考訳) QDec-POMDP問題に対処するSOTAアルゴリズム、QDec-FPとQDec-FPSは、異なるタイプの検知エージェントを含む問題に効果的に対処できない。 本稿では,あるエージェントが検知アクションを取らなかった場合,エージェントが同じ計画を採用するように要求することで,この問題に対処する新しいアルゴリズムを提案する。 このような状況下で,本アルゴリズムはQDec-FPとQDec-FPSの双方よりも性能が優れている。

The SOTA algorithms for addressing QDec-POMDP issues, QDec-FP and QDec-FPS, are unable to effectively tackle problems that involve different types of sensing agents. We propose a new algorithm that addresses this issue by requiring agents to adopt the same plan if one agent is unable to take a sensing action but the other can. Our algorithm performs significantly better than both QDec-FP and QDec-FPS in these types of situations.
翻訳日:2023-01-06 13:16:18 公開日:2023-01-04
# 映像動作認識のための階層的説明

Hierarchical Explanations for Video Action Recognition ( http://arxiv.org/abs/2301.00436v2 )

ライセンス: Link先を確認
Sadaf Gulshad, Teng Long, Nanne van Noord(参考訳) 階層型 ProtoPNet:クラス間の階層的関係を考慮し,その推論過程を説明する解釈可能なネットワークを提案する。 入力画像の解剖と分類の原型的部分の検索による推論過程を説明する従来の方法と異なり,入力された映像フレームをクラス階層の多レベルに分類することにより,ビデオアクション分類の推論過程を説明することを提案する。 水と人間の活動を観察する時、決定的な行動は起こらないが、水スポーツの親クラスとして認識することができる。 水泳を観察した後だけ、私たちはそれを水泳行動に精練することができる。 ActivityNetとUCF-101の実験では、マルチレベルな説明を提供しながら、パフォーマンスが改善された。

We propose Hierarchical ProtoPNet: an interpretable network that explains its reasoning process by considering the hierarchical relationship between classes. Different from previous methods that explain their reasoning process by dissecting the input image and finding the prototypical parts responsible for the classification, we propose to explain the reasoning process for video action classification by dissecting the input video frames on multiple levels of the class hierarchy. The explanations leverage the hierarchy to deal with uncertainty, akin to human reasoning: When we observe water and human activity, but no definitive action it can be recognized as the water sports parent class. Only after observing a person swimming can we definitively refine it to the swimming action. Experiments on ActivityNet and UCF-101 show performance improvements while providing multi-level explanations.
翻訳日:2023-01-06 13:07:44 公開日:2023-01-04
# 低精度数フォーマットにおける確率勾配の収束性について

On the Convergence of Stochastic Gradient Descent in Low-precision Number Formats ( http://arxiv.org/abs/2301.01651v1 )

ライセンス: Link先を確認
Matteo Cacciola, Antonio Frangioni, Masoud Asgharian, Alireza Ghaffari, Vahid Partovi Nia(参考訳) ディープラーニングモデルは、視覚、テキスト、音声処理など、ほぼすべての人工知能タスクを支配している。 Stochastic Gradient Descent (SGD) はそのようなモデルをトレーニングするための主要なツールであり、計算は通常単精度浮動小数点数形式で行われる。 単精度SGDの収束は通常、無視可能な誤差を示すため、実数の理論的結果と一致している。 しかし、計算が低精度数形式で行われると数値誤差が増加する。 これは、低精度計算に適応したsgd収束を研究する説得力のある理由を与える。 本稿では,SGDアルゴリズムの決定論的および確率論的解析を行い,数値形式の効果を示す境界を求める。 このような境界は、制約がリモートで高精度計算を行う可能性を示す場合、SGD収束がどのように影響を受けるかに関するガイドラインを提供することができる。

Deep learning models are dominating almost all artificial intelligence tasks such as vision, text, and speech processing. Stochastic Gradient Descent (SGD) is the main tool for training such models, where the computations are usually performed in single-precision floating-point number format. The convergence of single-precision SGD is normally aligned with the theoretical results of real numbers since they exhibit negligible error. However, the numerical error increases when the computations are performed in low-precision number formats. This provides compelling reasons to study the SGD convergence adapted for low-precision computations. We present both deterministic and stochastic analysis of the SGD algorithm, obtaining bounds that show the effect of number format. Such bounds can provide guidelines as to how SGD convergence is affected when constraints render the possibility of performing high-precision computations remote.
翻訳日:2023-01-05 16:19:58 公開日:2023-01-04
# 強化学習を用いたビッグデータからの学習ベースmpc

Learning-based MPC from Big Data Using Reinforcement Learning ( http://arxiv.org/abs/2301.01667v1 )

ライセンス: Link先を確認
Shambhuraj Sawant, Akhil S Anand, Dirk Reinhardt, Sebastien Gros(参考訳) 本稿では,Reinforcement Learning (RL) 手法を用いて,データから直接モデル予測制御(MPC)スキームを学習する手法を提案する。 最先端学習手法はRLを用いてパラメータ化されたMPCスキームの性能を向上させる。 しかし、これらの学習アルゴリズムはしばしば勾配に基づく手法であり、計算コストの高いmpcスキームの頻繁な評価を必要とする。 本稿では、RLのツールを用いて、オフラインでデータから直接パラメータ化されたMPCスキームを学習することを提案する。 提案手法は, 収集したデータセットを解くことなく, MPC のスキームを導出し, 既存のビッグデータ手法の計算複雑性を解消する。 本手法は, 様々な複雑さのシミュレーション実験を行った。

This paper presents an approach for learning Model Predictive Control (MPC) schemes directly from data using Reinforcement Learning (RL) methods. The state-of-the-art learning methods use RL to improve the performance of parameterized MPC schemes. However, these learning algorithms are often gradient-based methods that require frequent evaluations of computationally expensive MPC schemes, thereby restricting their use on big datasets. We propose to tackle this issue by using tools from RL to learn a parameterized MPC scheme directly from data in an offline fashion. Our approach derives an MPC scheme without having to solve it over the collected dataset, thereby eliminating the computational complexity of existing techniques for big data. We evaluate the proposed method on three simulated experiments of varying complexity.
翻訳日:2023-01-05 16:19:45 公開日:2023-01-04
# 欠落書誌リンク予測のためのテキストサンプリング戦略

Text sampling strategies for predicting missing bibliographic links ( http://arxiv.org/abs/2301.01673v1 )

ライセンス: Link先を確認
F. V. Krasnova, I. S. Smaznevicha, E. N. Baskakova(参考訳) 本稿では,欠落した文献リンクを検出するために自動文分類を行う際に,テキストデータをサンプリングする様々な手法を提案する。 テキストの意味単位として文に基づくサンプルを構築し,隣接する複数の文からなる即時文脈を追加する。 コンテキストサイズと位置の異なる多数のサンプリング戦略について検討する。 実験はSTEM科学論文の収集で行われている。 サンプルに文のコンテキストを含めると、分類の結果が改善される。 異なる方法でサンプリングされた同じデータを分類する際に、アンサンブル投票を行うことにより、所定のテキストコレクションの最適なサンプリング戦略を自動的に決定する。 厳格な投票手順による文文脈を考慮したサンプリング戦略は、98%(F1スコア)の分類精度をもたらす。 この欠落した書誌リンクを検出する方法は、応用知的情報システムのレコメンデーションエンジンで使用できる。

The paper proposes various strategies for sampling text data when performing automatic sentence classification for the purpose of detecting missing bibliographic links. We construct samples based on sentences as semantic units of the text and add their immediate context which consists of several neighboring sentences. We examine a number of sampling strategies that differ in context size and position. The experiment is carried out on the collection of STEM scientific papers. Including the context of sentences into samples improves the result of their classification. We automatically determine the optimal sampling strategy for a given text collection by implementing an ensemble voting when classifying the same data sampled in different ways. Sampling strategy taking into account the sentence context with hard voting procedure leads to the classification accuracy of 98% (F1-score). This method of detecting missing bibliographic links can be used in recommendation engines of applied intelligent information systems.
翻訳日:2023-01-05 16:19:33 公開日:2023-01-04
# FPGAにおける高精度・低レイテンシ・効率的なSAR自動目標認識

Accurate, Low-latency, Efficient SAR Automatic Target Recognition on FPGA ( http://arxiv.org/abs/2301.01454v1 )

ライセンス: Link先を確認
Bingyi Zhang, Rajgopal Kannan, Viktor Prasanna, Carl Busart(参考訳) 合成開口レーダ(SAR)自動目標認識(ATR)はリモートセンシング画像認識の鍵となる技術である。 SAR ATRの最先端の畳み込みニューラルネットワーク(CNN)は、小さな/マイクロ衛星のようなリソース制限されたプラットフォームにデプロイするのに適さないため、 \emph{high compute cost} と \emph{large memory footprint} に苦しむ。 本稿では, FPGA 上のモデルアーキテクチャを包括的に構築し, 上記の問題に対処する手法を提案する。 \emph{Model design}: SAR ATRのための新しいグラフニューラルネットワーク(GNN)を設計する。 提案したGNNモデルでは,GraphSAGE層演算子とアテンション機構が組み込まれ,計算コストが約1/100ドルの最先端処理と同等の精度を実現している。 次に,重みの刈り込みと入力の刈り込みを含む刈り込み手法を提案する。 ラッソ回帰によるウェイトプルーニングは精度低下なしにほとんどのパラメータを減少させるが、入力プルーニングは無視できる精度低下を伴うほとんどの入力ピクセルを除去する。 \emph{Architecture design}: 提案したモデル内で計算並列性を完全に解き放つために, 様々な計算カーネル(機能集約, 特徴変換, グラフプーリング)を実行できる新しい統一ハードウェアアーキテクチャを開発する。 提案するハードウェア設計では、Scatter-Gatherパラダイムを採用し、様々な計算カーネルの不規則な計算パターンを効率的に処理する。 提案手法を組み込みFPGA(AMD Xilinx ZCU104)上に展開し,MSTARデータセットを用いて性能評価を行う。 最先端のCNNと比較して、提案したGNNは計算コストが1/3258ドル、モデルサイズが1/83ドルである。 最先端のCPU/GPUと比較して、FPGAアクセラレータは14.8\times$/2.5\times$スピードアップ(レイテンシ)を達成し、62\times$/39\times$よりエネルギー効率が高い。

Synthetic aperture radar (SAR) automatic target recognition (ATR) is the key technique for remote-sensing image recognition. The state-of-the-art convolutional neural networks (CNNs) for SAR ATR suffer from \emph{high computation cost} and \emph{large memory footprint}, making them unsuitable to be deployed on resource-limited platforms, such as small/micro satellites. In this paper, we propose a comprehensive GNN-based model-architecture {co-design} on FPGA to address the above issues. \emph{Model design}: we design a novel graph neural network (GNN) for SAR ATR. The proposed GNN model incorporates GraphSAGE layer operators and attention mechanism, achieving comparable accuracy as the state-of-the-art work with near $1/100$ computation cost. Then, we propose a pruning approach including weight pruning and input pruning. While weight pruning through lasso regression reduces most parameters without accuracy drop, input pruning eliminates most input pixels with negligible accuracy drop. \emph{Architecture design}: to fully unleash the computation parallelism within the proposed model, we develop a novel unified hardware architecture that can execute various computation kernels (feature aggregation, feature transformation, graph pooling). The proposed hardware design adopts the Scatter-Gather paradigm to efficiently handle the irregular computation {patterns} of various computation kernels. We deploy the proposed design on an embedded FPGA (AMD Xilinx ZCU104) and evaluate the performance using MSTAR dataset. Compared with the state-of-the-art CNNs, the proposed GNN achieves comparable accuracy with $1/3258$ computation cost and $1/83$ model size. Compared with the state-of-the-art CPU/GPU, our FPGA accelerator achieves $14.8\times$/$2.5\times$ speedup (latency) and is $62\times$/$39\times$ more energy efficient.
翻訳日:2023-01-05 16:18:38 公開日:2023-01-04
# UNAEN:MRI運動アーチファクト削減のための教師なし異常抽出ネットワーク

UNAEN: Unsupervised Abnomality Extraction Network for MRI Motion Artifact Reduction ( http://arxiv.org/abs/2301.01732v1 )

ライセンス: Link先を確認
Yusheng Zhou, Hao Li, Jianan Liu, Zhengmin Kong, Tao Huang, Euijoon Ah, and Zhihan Lv(参考訳) モーションアーティファクトの低減は、磁気共鳴イメージングにおける最も関心のある問題の1つである。 将来性のある解決策として,MRIのアーティファクト削減タスクにおいて,ディープラーニングに基づく手法が広く研究されている。 振り返り処理方法としては、ニューラルネットワークは、追加の獲得時間や新しい取得機器を必要とすることなく、従来のアーティファクト削減方法よりもうまく機能するように見える。 前回の研究では、そのようなモデルのトレーニングには、ペア化された動き破壊と動きのないMR画像が必要である。 しかし、2つの画像取得時に患者が同じ状態を維持するのが困難で、指導された方法での訓練が非現実的になるため、現実にこれらの画像を得るのは非常に困難または不可能である。 本研究では,この問題を緩和するために,新たにunsupervised abnomality extract network (UNAEN)を提案する。 本ネットワークは,非ペアmr画像におけるアーチファクトによる異常情報を処理することにより,アーチファクトドメインからモーションフリードメインへの移行を実現する。 本研究では, MR画像からのアーチファクト除去結果を直接生成するのと異なり, 深い特徴を学習することで, MR画像におけるアーティファクトの影響を間接的に補正する, 異常抽出の戦略を採用した。 実験の結果,本手法は最先端のネットワークより優れており,臨床応用の可能性も示唆された。

Motion artifact reduction is one of the most concerned problems in magnetic resonance imaging. As a promising solution, deep learning-based methods have been widely investigated for artifact reduction tasks in MRI. As a retrospective processing method, neural network does not cost additional acquisition time or require new acquisition equipment, and seems to work better than traditional artifact reduction methods. In the previous study, training such models require the paired motion-corrupted and motion-free MR images. However, it is extremely tough or even impossible to obtain these images in reality because patients have difficulty in maintaining the same state during two image acquisition, which makes the training in a supervised manner impractical. In this work, we proposed a new unsupervised abnomality extraction network (UNAEN) to alleviate this problem. Our network realizes the transition from artifact domain to motion-free domain by processing the abnormal information introduced by artifact in unpaired MR images. Different from directly generating artifact reduction results from motion-corrupted MR images, we adopted the strategy of abnomality extraction to indirectly correct the impact of artifact in MR images by learning the deep features. Experimental results show that our method is superior to state-of-the-art networks and can potentially be applied in real clinical settings.
翻訳日:2023-01-05 16:17:44 公開日:2023-01-04
# 電気インピーダンストモグラフィにおける心臓容積モニタリングのための機械学習による信号品質評価

Machine Learning-based Signal Quality Assessment for Cardiac Volume Monitoring in Electrical Impedance Tomography ( http://arxiv.org/abs/2301.01469v1 )

ライセンス: Link先を確認
Chang Min Hyun, Tae Jun Jang, Jeongchan Nam, Hyeuknam Kwon, Kiwan Jeon, Kyunghun Lee(参考訳) 近年の胸部電気インピーダンストモグラフィの進歩により、脳卒中容積と心臓出力に関連する心臓容積信号をサーベイすることにより、患者の血行動態を非侵襲的かつ連続的に推定することができる。 しかし、臨床応用において、心容積信号は、主に臨床介入中の患者の意図的な動きや避けられない動きのために、品質が低いことが多い。 本研究では, 運動アーチファクトが過渡的心容積信号に与える影響を評価する信号品質指標法を開発することを目的とした。 この評価は、心容積の変化の周期性と規則性を活用するために、各心周期で行われる。 同期心電図システムを用いて時間間隔を同定する。 判別モデルと多様体学習のアプローチに分類可能な発散型機械学習手法を適用する。 機械学習の利用は、高速な推論と自動化と高い精度を必要とするリアルタイム監視アプリケーションに適しているかもしれません。 臨床環境において, 患者状態の混乱を最小限に抑え, 臨床資源利用の削減, モニタリングシステムの信頼性向上を図るために, 提案手法を利用して即時警告を行うことができる。 実際のEITデータを用いた多数の実験は、運動人工物によって劣化した心臓の容積信号が機械学習によってリアルタイムで正確に自動評価される能力を検証する。 最良のモデルは0.95、正と負の予測値 0.96 と 0.86、感度 0.98、特異度 0.77、auc 0.96 の精度を達成した。

Owing to recent advances in thoracic electrical impedance tomography, a patient's hemodynamic function can be noninvasively and continuously estimated in real-time by surveilling a cardiac volume signal associated with stroke volume and cardiac output. In clinical applications, however, a cardiac volume signal is often of low quality, mainly because of the patient's deliberate movements or inevitable motions during clinical interventions. This study aims to develop a signal quality indexing method that assesses the influence of motion artifacts on transient cardiac volume signals. The assessment is performed on each cardiac cycle to take advantage of the periodicity and regularity in cardiac volume changes. Time intervals are identified using the synchronized electrocardiography system. We apply divergent machine-learning methods, which can be sorted into discriminative-model and manifold-learning approaches. The use of machine-learning could be suitable for our real-time monitoring application that requires fast inference and automation as well as high accuracy. In the clinical environment, the proposed method can be utilized to provide immediate warnings so that clinicians can minimize confusion regarding patients' conditions, reduce clinical resource utilization, and improve the confidence level of the monitoring system. Numerous experiments using actual EIT data validate the capability of cardiac volume signals degraded by motion artifacts to be accurately and automatically assessed in real-time by machine learning. The best model achieved an accuracy of 0.95, positive and negative predictive values of 0.96 and 0.86, sensitivity of 0.98, specificity of 0.77, and AUC of 0.96.
翻訳日:2023-01-05 16:15:50 公開日:2023-01-04
# ハイパーパラメータ最適化による自律走行システムのデータ駆動モデル同定

Data-Driven Model Identification via Hyperparameter Optimization for the Autonomous Racing System ( http://arxiv.org/abs/2301.01470v1 )

ライセンス: Link先を確認
Hyunki Seong, Chanyoung Chung, and David Hyunchul Shim(参考訳) 本稿では,ハイパーパラメータ最適化(MIHO)を用いたモデル同定手法を提案する。 本手法はパラメトリックモデルのパラメータをデータ駆動方式で識別することができる。 フルスケールの自律走行車であるAV-21の動的パラメータにMIHOを使用し、モデルをベースとした計画制御システムに統合する。 実験では、最適化されたパラメータを持つモデルは、車両力学モデルの一般化能力を示す。 さらに、モデルベースシステムを検証するために、広範囲なフィールドテストを実施します。 テストの結果、我々のレースシステムは学習したモデルのダイナミクスをうまく活用し、インディアナポリス・モーター・スピードウェイとラスベガス・モーター・スピードウェイで200 km/h$以上の障害物回避と高速運転を成功させた。 MIHOのソースコードとテストのビデオはhttps://github.com/hynkis/MIHOで公開されている。

In this letter, we propose a model identification method via hyperparameter optimization (MIHO). Our method is able to identify the parameters of the parametric models in a data-driven manner. We utilize MIHO for the dynamics parameters of the AV-21, the full-scaled autonomous race vehicle, and integrate them into our model-based planning and control systems. In experiments, the models with the optimized parameters demonstrate the generalization ability of the vehicle dynamics model. We further conduct extensive field tests to validate our model-based system. The tests show that our race systems leverage the learned model dynamics well and successfully perform obstacle avoidance and high-speed driving over $200 km/h$ at the Indianapolis Motor Speedway and Las Vegas Motor Speedway. The source code for MIHO and videos of the tests are available at https://github.com/hynkis/MIHO.
翻訳日:2023-01-05 16:15:25 公開日:2023-01-04
# UAVによる無線通信のメタバース支援:強化学習アプローチ

UAV aided Metaverse over Wireless Communications: A Reinforcement Learning Approach ( http://arxiv.org/abs/2301.01474v1 )

ライセンス: Link先を確認
Peiyuan Si, Wenhan Yu, Jun Zhao, Kwok-Yan Lam, Qing Yang(参考訳) Metaverseは5Gの高速通信技術をサポートした没入型体験をユーザに提供するために,現実と密接に結びついた仮想世界を構築することが期待されている。 物理的な世界で膨大な量のデータを仮想世界と同期させて、ユーザに没入的な体験を提供する必要がある。 しかし、5G信号は厳しい減衰に悩まされ、同じカバレッジを維持するのにコストがかかる。 無人航空機(UAV)は,通信機器の低コストかつ高機能なプラットフォームとして,Metaverseを将来実装するための有望な候補技術である。 本稿では,UAVのチャネル割当と軌道制御のためのPPOに基づく二重エージェント協調型強化学習手法を提案し,物理的世界から仮想世界へのデータを収集・同期し,メタバースサービスの利用範囲を経済的に拡大する。 シミュレーションの結果,提案手法はベンチマーク手法よりも優れた性能が得られることが示された。

Metaverse is expected to create a virtual world closely connected with reality to provide users with immersive experience with the support of 5G high data rate communication technique. A huge amount of data in physical world needs to be synchronized to the virtual world to provide immersive experience for users, and there will be higher requirements on coverage to include more users into Metaverse. However, 5G signal suffers severe attenuation, which makes it more expensive to maintain the same coverage. Unmanned aerial vehicle (UAV) is a promising candidate technique for future implementation of Metaverse as a low-cost and high-mobility platform for communication devices. In this paper, we propose a proximal policy optimization (PPO) based double-agent cooperative reinforcement learning method for channel allocation and trajectory control of UAV to collect and synchronize data from the physical world to the virtual world, and expand the coverage of Metaverse services economically. Simulation results show that our proposed method is able to achieve better performance compared to the benchmark approaches.
翻訳日:2023-01-05 16:15:10 公開日:2023-01-04
# リーマン多様体とラグランジアンモンテカルロの修正変分における幾何学的エルゴード性

Geometric Ergodicity in Modified Variations of Riemannian Manifold and Lagrangian Monte Carlo ( http://arxiv.org/abs/2301.01409v1 )

ライセンス: Link先を確認
James A. Brofos and Vivekananda Roy and Roy R. Lederman(参考訳) リーマン多様体ハミルトニアン (RMHMC) とラグランジアンモンテカルロ (LMC) はベイズ推論の強力な方法として登場した。 euclidean hamiltonian monte carlo (ehmc)やmetropolis-adjusted langevin algorithm (mala)とは異なり、これらのリーマンアルゴリズムの幾何学的エルゴード性は広く研究されていない。 一方、多様体メトロポリス調整ランゲヴィンアルゴリズム(MMALA)は、ある条件下で幾何学的エルゴード性を示すことが最近示されている。 本研究は, LMC と RMHMC 遷移核と MMALA の混合について検討し, この手法を「継承された」幾何学的エルゴディディティ理論と組み合わせた。 我々はこの混合カーネルを単一ステップHMCとMALAの類似性に基づいて動機付けする。 その後、いくつかのベンチマークベイズ推論タスクにおいて、オリジナルおよび修正された遷移カーネルを評価する。

Riemannian manifold Hamiltonian (RMHMC) and Lagrangian Monte Carlo (LMC) have emerged as powerful methods of Bayesian inference. Unlike Euclidean Hamiltonian Monte Carlo (EHMC) and the Metropolis-adjusted Langevin algorithm (MALA), the geometric ergodicity of these Riemannian algorithms has not been extensively studied. On the other hand, the manifold Metropolis-adjusted Langevin algorithm (MMALA) has recently been shown to exhibit geometric ergodicity under certain conditions. This work investigates the mixture of the LMC and RMHMC transition kernels with MMALA in order to equip the resulting method with an "inherited" geometric ergodicity theory. We motivate this mixture kernel based on an analogy between single-step HMC and MALA. We then proceed to evaluate the original and modified transition kernels on several benchmark Bayesian inference tasks.
翻訳日:2023-01-05 16:07:49 公開日:2023-01-04
# HPGe $\mathrm{\gamma}$-ray Spectra を用いた放射性同位体同位体定量のための機械学習技術

Machine Learning technique for isotopic determination of radioisotopes using HPGe $\mathrm{\gamma}$-ray spectra ( http://arxiv.org/abs/2301.01415v1 )

ライセンス: Link先を確認
Ajeeta Khatiwada, Marc Klasky, Marcie Lombardi, Jason Matheny, Arvind Mohan(参考訳) $\mathrm{\gamma}$-ray spectroscopy は放射性核種の同定と定量同位体推定に利用される量的、非破壊的手法である。 従来の同位体決定法は、推定された同位体の統計的および体系的な不確実性に寄与する様々な課題がある。 さらに、これらの方法は一般的に多くの前処理ステップを必要とし、限定的な遮蔽を伴う実験室でのみ厳格にテストされている。 本研究では,機械学習に基づく回帰アルゴリズムを,緊急応答場における$\mathrm{\gamma}$-rayスペクトロスコピーデータを解析するための従来の手法の代替として適用することを検討する。 このアプローチは分析手順の多くのステップを排除するだけでなく、系統的不確実性の原因を減らす可能性も与えるだけでなく、緊急対応アプリケーションにおける従来のアプローチに匹敵するパフォーマンスを提供する。

$\mathrm{\gamma}$-ray spectroscopy is a quantitative, non-destructive technique that may be utilized for the identification and quantitative isotopic estimation of radionuclides. Traditional methods of isotopic determination have various challenges that contribute to statistical and systematic uncertainties in the estimated isotopics. Furthermore, these methods typically require numerous pre-processing steps, and have only been rigorously tested in laboratory settings with limited shielding. In this work, we examine the application of a number of machine learning based regression algorithms as alternatives to conventional approaches for analyzing $\mathrm{\gamma}$-ray spectroscopy data in the Emergency Response arena. This approach not only eliminates many steps in the analysis procedure, and therefore offers potential to reduce this source of systematic uncertainty, but is also shown to offer comparable performance to conventional approaches in the Emergency Response Application.
翻訳日:2023-01-05 16:06:32 公開日:2023-01-04
# スカラー場理論のための生成モデル:貧弱なスケーリングをどう扱うか?

Generative models for scalar field theories: how to deal with poor scaling? ( http://arxiv.org/abs/2301.01504v1 )

ライセンス: Link先を確認
Javad Komijani and Marina K. Marinkovic(参考訳) フローの正規化法のような生成モデルは、格子ゲージ場構成を生成する標準的なアルゴリズムの代替として提案されている。 フローを正規化する方法の研究は、2次元の単純なモデルに対する原理の証明を示す。 しかし、さらなる研究により、訓練コストは概して大きな格子に対して非常に高いことが示されている。 現在のモデルのスケーリング特性の低さは、中規模ネットワークが問題、特に臨界点に関する本質的にマルチスケールの側面を効率的に扱えないことを示している。 大規模格子の受容率に制限のある現在のモデルについて検討し,有効場理論に触発された新しいアーキテクチャを考察し,スケーリング特性を改善する。 また、大きな格子に対する受け入れ率の低い処理方法についても論じる。

Generative models, such as the method of normalizing flows, have been suggested as alternatives to the standard algorithms for generating lattice gauge field configurations. Studies with the method of normalizing flows demonstrate the proof of principle for simple models in two dimensions. However, further studies indicate that the training cost can be, in general, very high for large lattices. The poor scaling traits of current models indicate that moderate-size networks cannot efficiently handle the inherently multi-scale aspects of the problem, especially around critical points. We explore current models with limited acceptance rates for large lattices and examine new architectures inspired by effective field theories to improve scaling traits. We also discuss alternative ways of handling poor acceptance rates for large lattices.
翻訳日:2023-01-05 16:06:18 公開日:2023-01-04
# GUAP: 敵のパッチによるグラフユニバーサル攻撃

GUAP: Graph Universal Attack Through Adversarial Patching ( http://arxiv.org/abs/2301.01731v1 )

ライセンス: Link先を確認
Xiao Zang, Jie Chen, Bo Yuan(参考訳) グラフニューラルネットワーク(Graph Neural Network, GNN)は、ノード分類タスクのための効果的なディープラーニングモデルのクラスである。 グラフ対向攻撃に関する現在の研究の多くは、全体的な予測精度を下げることを目的としているが、結果の異常モデルの性能は容易に注意を引き、迅速な反撃を招きかねない。 さらに,優れたセキュリティプロトコルが実装されれば,既存のグラフデータの変更による攻撃の実施が困難になる可能性がある。 本研究では,新しいノードやエッジでグラフを逆にパッチを当てることで,より容易な攻撃に気付くことを検討する。 攻撃は普遍的であり、毎回1つのノードをターゲットとし、その接続を同じパッチノードのセットに切り替える。 ターゲット以外のノードの予測は変更されない。 我々はGUAPと呼ばれるアルゴリズムを開発し、高い攻撃成功率を達成する一方、予測精度を維持する。 GUAPはサンプリング戦略を採用して訓練が速い。 各エポックにおける5%のサンプリングは,攻撃性能をわずかに低下させることなく,20倍のスピードアップを達成できることを示した。 さらに、グラフ畳み込みネットワークで訓練された敵パッチが、グラフアテンションネットワークなどの他のGNNによく伝達されることを示す。

Graph neural networks (GNNs) are a class of effective deep learning models for node classification tasks; yet their predictive capability may be severely compromised under adversarially designed unnoticeable perturbations to the graph structure and/or node data. Most of the current work on graph adversarial attacks aims at lowering the overall prediction accuracy, but we argue that the resulting abnormal model performance may catch attention easily and invite quick counterattack. Moreover, attacks through modification of existing graph data may be hard to conduct if good security protocols are implemented. In this work, we consider an easier attack harder to be noticed, through adversarially patching the graph with new nodes and edges. The attack is universal: it targets a single node each time and flips its connection to the same set of patch nodes. The attack is unnoticeable: it does not modify the predictions of nodes other than the target. We develop an algorithm, named GUAP, that achieves high attack success rate but meanwhile preserves the prediction accuracy. GUAP is fast to train by employing a sampling strategy. We demonstrate that a 5% sampling in each epoch yields 20x speedup in training, with only a slight degradation in attack performance. Additionally, we show that the adversarial patch trained with the graph convolutional network transfers well to other GNNs, such as the graph attention network.
翻訳日:2023-01-05 16:05:46 公開日:2023-01-04
# 大規模協力と競争による創発的集団知能

Emergent collective intelligence from massive-agent cooperation and competition ( http://arxiv.org/abs/2301.01609v1 )

ライセンス: Link先を確認
Hanmo Chen, Stone Tao, Jiaxin Chen, Weihan Shen, Xihui Li, Sikai Cheng, Xiaolong Zhu, Xiu Li(参考訳) 地球上の異なる集団間の協力と競争を通じて進化する生物に触発され、大量エージェント強化学習による人工集団知の出現を研究する。 この目的のために、我々はLuxという巨大エージェント強化学習環境を提案し、2つのチームの動的エージェントと大規模エージェントが限られたリソースを求めてスクランブルし、闇と戦う。 luxでは、カリキュラム学習段階における標準強化学習アルゴリズムを用いてエージェントを構築し、ピクセル間ポリシネットワークを介して集中制御を活用します。 エージェントは自己再生を通じて協調し、アトミックスキルの獲得からグループ戦略の開発まで、いくつかの段階の知性を観察します。 これらの学習された集団戦略は、明示的な協調機構を持たない個々の決定から生じるため、人工的な集団知能は、大規模な協力と競争から生まれると主張する。 我々はさらに,大規模エージェント環境における強化学習の実装に関する洞察を提供することを目的として,メトリクスとアブレーション研究を通じて,様々な学習戦略の出現を分析する。

Inspired by organisms evolving through cooperation and competition between different populations on Earth, we study the emergence of artificial collective intelligence through massive-agent reinforcement learning. To this end, We propose a new massive-agent reinforcement learning environment, Lux, where dynamic and massive agents in two teams scramble for limited resources and fight off the darkness. In Lux, we build our agents through the standard reinforcement learning algorithm in curriculum learning phases and leverage centralized control via a pixel-to-pixel policy network. As agents co-evolve through self-play, we observe several stages of intelligence, from the acquisition of atomic skills to the development of group strategies. Since these learned group strategies arise from individual decisions without an explicit coordination mechanism, we claim that artificial collective intelligence emerges from massive-agent cooperation and competition. We further analyze the emergence of various learned strategies through metrics and ablation studies, aiming to provide insights for reinforcement learning implementations in massive-agent environments.
翻訳日:2023-01-05 16:00:16 公開日:2023-01-04
# ディープニューラルネットワークを用いたインクリメンタルvolt/var制御のスケーラブル最適設計

Scalable Optimal Design of Incremental Volt/VAR Control using Deep Neural Networks ( http://arxiv.org/abs/2301.01440v1 )

ライセンス: Link先を確認
Sarthak Gupta, Ali Mehrizi-Sani, Spyros Chatzivasileiadis, Vassilis Kekatos(参考訳) volt/var制御ルールは分散エネルギー資源(der)の自律運転を促進し、配電網の電圧を制御する。 IEEE標準1547で規定されているような非増分制御規則によれば、各DERの反応性電力設定点を局所電圧の片方向線形曲線として演算する。 しかし、そのような曲線の傾斜は安定性を確保するために上界である。 一方、インクリメンタルルールはsetpoint updateにメモリ項を追加し、それらを普遍的に安定させる。 これにより、定常電圧プロファイルを向上することができる。 インクリメンタルルールのための最適ルール設計(ORD)は、バイレベルプログラムとして定式化することができる。 我々は,深層ニューラルネットワーク(DNN)のトレーニングとしてORDを再構成することで,スケーラブルなソリューションを提案する。 このDNNは、近位勾配降下(PGD)の反復として導かれる漸進規則に対するボルト/VARダイナミクスをエミュレートする。 解析結果と数値試験により,提案するord溶液は単相/多相給電器に適用できることがわかった。

Volt/VAR control rules facilitate the autonomous operation of distributed energy resources (DER) to regulate voltage in power distribution grids. According to non-incremental control rules, such as the one mandated by the IEEE Standard 1547, the reactive power setpoint of each DER is computed as a piecewise-linear curve of the local voltage. However, the slopes of such curves are upper-bounded to ensure stability. On the other hand, incremental rules add a memory term into the setpoint update, rendering them universally stable. They can thus attain enhanced steady-state voltage profiles. Optimal rule design (ORD) for incremental rules can be formulated as a bilevel program. We put forth a scalable solution by reformulating ORD as training a deep neural network (DNN). This DNN emulates the Volt/VAR dynamics for incremental rules derived as iterations of proximal gradient descent (PGD). Analytical findings and numerical tests corroborate that the proposed ORD solution can be neatly adapted to single/multi-phase feeders.
翻訳日:2023-01-05 16:00:00 公開日:2023-01-04
# 複雑な季節行動の予測に深層学習アプローチを適用した授業

Lessons Learned Applying Deep Learning Approaches to Forecasting Complex Seasonal Behavior ( http://arxiv.org/abs/2301.01476v1 )

ライセンス: Link先を確認
Andrew T. Karl, James Wisnowski, Lambros Petropoulos(参考訳) 近年,メディアやKerasなどのオープンソースパッケージによる実装の比較的容易性を通じて,ディープラーニング手法が人気を集めている。 本稿では,大手金融サービス企業におけるコールセンターボリューム予測におけるニューラルネットワークの適用性について検討する。 これらのシリーズは、個々の観測の自己相関に加えて、季節パターン(日中の時間、週の日、年中の時間)と非常に複雑である。 金融サービス業界について検討するが、循環的非線形挙動をモデル化するための勧告は全分野にわたって一般化される。 本稿では,elman (simple), long short-term memory (ltsm), gated recurrent unit (gru) rnnのパラメータ設定と収束基準の最適化について,実用的観点から検討する。 多くの異なる"スキル"(インカムコールストリーム)にまたがる実際のコールセンタデータを用いた設計実験は、最も観察されたrnn構成の検証エラー率で測定されたパフォーマンスを、他のモダンで古典的な予測技術と比較する。 本稿では,予測における深層学習手法の有用性と考察を要約する。

Deep learning methods have gained popularity in recent years through the media and the relative ease of implementation through open source packages such as Keras. We investigate the applicability of popular recurrent neural networks in forecasting call center volumes at a large financial services company. These series are highly complex with seasonal patterns - between hours of the day, day of the week, and time of the year - in addition to autocorrelation between individual observations. Though we investigate the financial services industry, the recommendations for modeling cyclical nonlinear behavior generalize across all sectors. We explore the optimization of parameter settings and convergence criteria for Elman (simple), Long Short-Term Memory (LTSM), and Gated Recurrent Unit (GRU) RNNs from a practical point of view. A designed experiment using actual call center data across many different "skills" (income call streams) compares performance measured by validation error rates of the best observed RNN configurations against other modern and classical forecasting techniques. We summarize the utility of and considerations required for using deep learning methods in forecasting.
翻訳日:2023-01-05 15:59:44 公開日:2023-01-04
# 人間の動きからのシーン合成

Scene Synthesis from Human Motion ( http://arxiv.org/abs/2301.01424v1 )

ライセンス: Link先を確認
Sifan Ye, Yixing Wang, Jiaman Li, Dennis Park, C. Karen Liu, Huazhe Xu, Jiajun Wu(参考訳) 多様な複雑なシーンを持つ人間の動きを大規模に捉えることは、非常に有用であるが、しばしば禁止的に費用がかかると見なされる。 一方、人間の動きだけでも、自分が住んで対話するシーンについての豊富な情報を含んでいる。 例えば、座っている人間は椅子の存在を示唆し、脚の位置は椅子のポーズをさらに示唆している。 本稿では,人間の動きに基づく多様で意味論的に合理的で,物理的に妥当なシーンを合成することを提案する。 当社のフレームワークであるsummon(scene synthesis from human motion)には,2つのステップがあります。 まず、新たに導入されたコンタクト予測器であるContactFormerを使用して、人間の動きから時間的に一貫したコンタクトラベルを取得する。 これらの予測に基づいて、SUMMONは相互作用するオブジェクトを選択し、物理的な可視性損失を最適化する。 実験結果から,SUMMONは多種多様なシーンを合成し,コミュニティのために広範囲にわたる人間とシーンのインタラクションデータを生成できる可能性が示唆された。

Large-scale capture of human motion with diverse, complex scenes, while immensely useful, is often considered prohibitively costly. Meanwhile, human motion alone contains rich information about the scene they reside in and interact with. For example, a sitting human suggests the existence of a chair, and their leg position further implies the chair's pose. In this paper, we propose to synthesize diverse, semantically reasonable, and physically plausible scenes based on human motion. Our framework, Scene Synthesis from HUMan MotiON (SUMMON), includes two steps. It first uses ContactFormer, our newly introduced contact predictor, to obtain temporally consistent contact labels from human motion. Based on these predictions, SUMMON then chooses interacting objects and optimizes physical plausibility losses; it further populates the scene with objects that do not interact with humans. Experimental results demonstrate that SUMMON synthesizes feasible, plausible, and diverse scenes and has the potential to generate extensive human-scene interaction data for the community.
翻訳日:2023-01-05 15:59:08 公開日:2023-01-04
# ロボットインハンド観察と合成によるYOLOの自動訓練データ作成

Automatically Prepare Training Data for YOLO Using Robotic In-Hand Observation and Synthesis ( http://arxiv.org/abs/2301.01441v1 )

ライセンス: Link先を確認
Hao Chen, Weiwei Wan, Masaki Matsushita, Takeyuki Kotaka, Kensuke Harada(参考訳) 深層学習法は近年,物体検出において顕著な性能を示した。 しかし、高い認識精度を達成するために多くのトレーニングデータが必要であり、画像のラベル付けのようなかなりの手作業が必要であった。 本稿では,ロボットによるトレーニングデータの自動作成を行う。 ロボット動作における低効率・高エネルギー化を考慮し,ロボットが収集した限られたデータセットを拡大するために,ロボット内観察とデータ合成を組み合わせることを提案した。 まず、深度センサーを備えたロボットを用いて、ロボットの手にある物体の画像を収集し、対象画像を分割した。 そして、コピーペースト法を用いて、ラック背景を持つセグメント化されたオブジェクトを合成した。 収集された合成画像を組み合わせて、ディープ検出ニューラルネットワークをトレーニングする。 提案手法と他の方法を用いた画像を用いたYOLOv5x検出器の比較実験を行った。 その結果, 観察画像と合成画像の組み合わせが手動データ作成に匹敵する性能を示した。 彼らは、データ設定とパラメータ設定をトレーニングディテクターに最適化するための優れたガイドを提供した。 提案手法は単一のプロセスしか必要とせず,複合データを生成するための低コストな方法であった。 興味深い読者は、以下のGitHubリポジトリからデータセットとトレーニングされたモデルを見つけることができる。

Deep learning methods have recently exhibited impressive performance in object detection. However, such methods needed much training data to achieve high recognition accuracy, which was time-consuming and required considerable manual work like labeling images. In this paper, we automatically prepare training data using robots. Considering the low efficiency and high energy consumption in robot motion, we proposed combining robotic in-hand observation and data synthesis to enlarge the limited data set collected by the robot. We first used a robot with a depth sensor to collect images of objects held in the robot's hands and segment the object pictures. Then, we used a copy-paste method to synthesize the segmented objects with rack backgrounds. The collected and synthetic images are combined to train a deep detection neural network. We conducted experiments to compare YOLOv5x detectors trained with images collected using the proposed method and several other methods. The results showed that combined observation and synthetic images led to comparable performance to manual data preparation. They provided a good guide on optimizing data configurations and parameter settings for training detectors. The proposed method required only a single process and was a low-cost way to produce the combined data. Interested readers may find the data sets and trained models from the following GitHub repository: github.com/wrslab/tubedet
翻訳日:2023-01-05 15:58:52 公開日:2023-01-04
# 多相CTによる膵癌術前リンパ節転移予測のための深部局所注意ネットワーク

A deep local attention network for pre-operative lymph node metastasis prediction in pancreatic cancer via multiphase CT imaging ( http://arxiv.org/abs/2301.01448v1 )

ライセンス: Link先を確認
Zhilin Zheng, Xu Fang, Jiawen Yao, Mengmeng Zhu, Le Lu, Lingyun Huang, Jing Xiao, Yu Shi, Hong Lu, Jianping Lu, Ling Zhang, Chengwei Shao, Yun Bian(参考訳) リンパ節転移は切除可能な膵管腺癌(pdac)、またはあらゆる種類の固形悪性腫瘍において最も重要な予後および癌ステージング因子の1つである。 非侵襲的ct画像からのln転移の術前予測は,下記の新随伴治療決定と手術計画の指導に簡便に使用できるため,非常に望まれている。 ほとんどの研究は、LN転移を暗黙的に推測するためにCT画像の腫瘍の特徴のみを捉えており、直接LNのCT画像情報を利用する研究はほとんどない。 我々の知る限りでは、LN転移状態予測タスクを直接促進する完全自動LN分割同定ネットワークを提案するのはこれが初めてである。 しかし、LNのセグメンテーション/検出は非常に困難であり、LNは他の硬い負の解剖学的構造(例えば、血管)とラジオグラフィー画像から容易に混同できる。 膵 ln 部位の解剖学的空間的文脈を, 関連臓器や血管からの注意図を作成し, 分節化を補助し, ln 状態の推測を行う。 したがって、LNセグメンテーションは、特定の臓器や血管に対して解剖学的に近接しているか、あるいは可塑性である領域に焦点を絞る。 転移したLN識別ネットワークは、セグメンテーションネットワークをトレーニング済みのバックボーンとして再利用し、新しい分類ヘッドをパディングすることにより、セグメンテーションされたLNインスタンスを正または負に分類するように訓練される。 さらに,腫瘍領域から抽出したln分割・同定と深部画像特徴の患者別集計結果を組み合わせたln転移状態予測ネットワークを構築した。 pdac患者749名を対象に, 広範囲な量的ネスト型5次元クロスバリデーションを行った。

Lymph node (LN) metastasis status is one of the most critical prognostic and cancer staging factors for patients with resectable pancreatic ductal adenocarcinoma (PDAC), or in general, for any types of solid malignant tumors. Preoperative prediction of LN metastasis from non-invasive CT imaging is highly desired, as it might be straightforwardly used to guide the following neoadjuvant treatment decision and surgical planning. Most studies only capture the tumor characteristics in CT imaging to implicitly infer LN metastasis and very few work exploit direct LN's CT imaging information. To the best of our knowledge, this is the first work to propose a fully-automated LN segmentation and identification network to directly facilitate the LN metastasis status prediction task. Nevertheless LN segmentation/detection is very challenging since LN can be easily confused with other hard negative anatomic structures (e.g., vessels) from radiological images. We explore the anatomical spatial context priors of pancreatic LN locations by generating a guiding attention map from related organs and vessels to assist segmentation and infer LN status. As such, LN segmentation is impelled to focus on regions that are anatomically adjacent or plausible with respect to the specific organs and vessels. The metastasized LN identification network is trained to classify the segmented LN instances into positives or negatives by reusing the segmentation network as a pre-trained backbone and padding a new classification head. More importantly, we develop a LN metastasis status prediction network that combines the patient-wise aggregation results of LN segmentation/identification and deep imaging features extracted from the tumor region. Extensive quantitative nested five-fold cross-validation is conducted on a discovery dataset of 749 patients with PDAC.
翻訳日:2023-01-05 15:58:34 公開日:2023-01-04
# 安価で正確なグルコメーター読み出しのためのアンサンブルモバイルクラウド計算法

An Ensemble Mobile-Cloud Computing Method for Affordable and Accurate Glucometer Readout ( http://arxiv.org/abs/2301.01758v1 )

ライセンス: Link先を確認
Navidreza Asadi, Maziar Goudarzi(参考訳) 血液特性の定期的なモニタリングのための先進的な無線医療機器への重要な取り組みにもかかわらず、多くの国でそのようなデバイスは利用できないか、手頃な価格ではない。 あるいは通常のデバイスを使う場合、患者はデータを手動でモバイルの健康モニタリングに記録する必要がある。 1)クライアントは非現実的なデータを入力する傾向があり、(2)1日に数回の型付けは面倒で、クライアントがモバイルアプリを離れる原因になります。 したがって、今やユビキタスなスマートフォンを使う必要が強く、医療機器の画面から画像をキャプチャし、自動的に有用な情報を抽出することでエラーを低減できる。 それにもかかわらず、その開発にはいくつかの課題がある: (1) データの不足は、非常に低い精度で実用的でない方法を生み出した: この場合、我々の知識では、小さなデータセットのみが利用可能である; (2) 正確性-可用性のトレードオフ: 携帯電話でより正確でないアルゴリズムを実行して高い可用性を維持する; あるいは、より正確で計算集約的なアルゴリズムをクラウドにデプロイする。 我々は,クラウドとモバイルサイドの予測を統合することで,より高可用性と迅速な応答時間を実現するために,アンサンブル学習アルゴリズム,モバイルクラウドコンピューティングサービスアーキテクチャ,およびシンプルな圧縮技術を提案する。 さらに,深層学習モデルを利用して精度を向上させる合成学習データを生成するアルゴリズムを提案する。 提案手法は,(1) 92.1% と 97.7% の精度,(2) 必要な帯域幅を,1% の精度で45倍削減すること,(3) モバイル専用,クラウド専用,分割型,早期終了型サービスモデルと比較して,可用性が向上すること,の3つの目的を達成する。

Despite essential efforts towards advanced wireless medical devices for regular monitoring of blood properties, many such devices are not available or not affordable for everyone in many countries. Alternatively using ordinary devices, patients ought to log data into a mobile health-monitoring manually. It causes several issues: (1) clients reportedly tend to enter unrealistic data; (2) typing values several times a day is bothersome and causes clients to leave the mobile app. Thus, there is a strong need to use now-ubiquitous smartphones, reducing error by capturing images from the screen of medical devices and extracting useful information automatically. Nevertheless, there are a few challenges in its development: (1) data scarcity has led to impractical methods with very low accuracy: to our knowledge, only small datasets are available in this case; (2) accuracy-availability tradeoff: one can execute a less accurate algorithm on a mobile phone to maintain higher availability, or alternatively deploy a more accurate and more compute-intensive algorithm on the cloud, however, at the cost of lower availability in poor/no connectivity situations. We present an ensemble learning algorithm, a mobile-cloud computing service architecture, and a simple compression technique to achieve higher availability and faster response time while providing higher accuracy by integrating cloud- and mobile-side predictions. Additionally, we propose an algorithm to generate synthetic training data which facilitates utilizing deep learning models to improve accuracy. Our proposed method achieves three main objectives: (1) 92.1% and 97.7% accuracy on two different datasets, improving previous methods by 40%, (2) reducing required bandwidth by 45x with 1% drop in accuracy, (3) and providing better availability compared to mobile-only, cloud-only, split computing, and early exit service models.
翻訳日:2023-01-05 15:58:03 公開日:2023-01-04
# 形式的抽象化による非ガウス雑音系のロバスト制御

Robust Control for Dynamical Systems With Non-Gaussian Noise via Formal Abstractions ( http://arxiv.org/abs/2301.01526v1 )

ライセンス: Link先を確認
Thom Badings and Licio Romao and Alessandro Abate and David Parker and Hasan A. Poonawala and Marielle Stoelinga and Nils Jansen(参考訳) 安全クリティカルな環境で動作している動的システムのコントローラは確率的障害を考慮しなければならない。 このような乱れはしばしば力学系におけるプロセスノイズとしてモデル化され、基礎となる分布が知られているかガウス的であるという仮定が一般的である。 しかし実際には、これらの仮定は非現実的であり、真の雑音分布の近似が不十分になる可能性がある。 本稿では,ノイズ分布の明示的な表現に依存しない新しい制御器合成法を提案する。 特に、状態空間の安全でない領域を回避しつつ、ターゲットに安全に到達するための確率的保証を提供するコントローラの計算の問題に対処する。 まず,連続制御系を有限状態モデルに抽象化し,離散状態間の確率的遷移によって雑音を捕捉する。 重要な貢献として、これらの遷移確率のほぼ正しい(pac)境界を、ノイズの有限個のサンプルに基づいて計算するために、シナリオアプローチからのツールを適用する。 いわゆる区間マルコフ決定過程(iMDP)の遷移確率区間におけるこれらの境界を捉える。 このiMDPは、ユーザが特定した信頼確率を持ち、遷移確率の不確実性に対して頑健であり、確率間隔の厳密性はサンプル数によって制御できる。 我々は、現状検証技術を用いて、iMDPの保証を提供し、これらの保証が元の制御システムに受け継がれるコントローラを演算する。 さらに,imdp上でのこれらの保証の合成の複雑さを低減させる最適化計算スキームを開発した。 現実的な制御システムのベンチマークでは、IMDPが数億の遷移を持つ場合でも、我々の手法の実用性を示している。

Controllers for dynamical systems that operate in safety-critical settings must account for stochastic disturbances. Such disturbances are often modeled as process noise in a dynamical system, and common assumptions are that the underlying distributions are known and/or Gaussian. In practice, however, these assumptions may be unrealistic and can lead to poor approximations of the true noise distribution. We present a novel controller synthesis method that does not rely on any explicit representation of the noise distributions. In particular, we address the problem of computing a controller that provides probabilistic guarantees on safely reaching a target, while also avoiding unsafe regions of the state space. First, we abstract the continuous control system into a finite-state model that captures noise by probabilistic transitions between discrete states. As a key contribution, we adapt tools from the scenario approach to compute probably approximately correct (PAC) bounds on these transition probabilities, based on a finite number of samples of the noise. We capture these bounds in the transition probability intervals of a so-called interval Markov decision process (iMDP). This iMDP is, with a user-specified confidence probability, robust against uncertainty in the transition probabilities, and the tightness of the probability intervals can be controlled through the number of samples. We use state-of-the-art verification techniques to provide guarantees on the iMDP and compute a controller for which these guarantees carry over to the original control system. In addition, we develop a tailored computational scheme that reduces the complexity of the synthesis of these guarantees on the iMDP. Benchmarks on realistic control systems show the practical applicability of our method, even when the iMDP has hundreds of millions of transitions.
翻訳日:2023-01-05 15:57:27 公開日:2023-01-04
# 雑音ラベル学習における識別可能性に向けて:多項混合アプローチ

Towards the Identifiability in Noisy Label Learning: A Multinomial Mixture Approach ( http://arxiv.org/abs/2301.01405v1 )

ライセンス: Link先を確認
Cuong Nguyen, Thanh-Toan Do, Gustavo Carneiro(参考訳) ノイズラベルからの学習は、ディープラーニング時代において重要な役割を果たす。 有望な結果を伴う多くの研究にもかかわらず、単一ノイズラベルを持つ従来のノイズラベル学習問題(つまり、クリーンラベルにアクセスできないか、追加の仮定を導入していない場合)が特定できないため、ノイズアノテートされたデータセットからクリーンラベルを識別することは依然として困難である。 本稿では, 雑音ラベル学習問題を多項混合モデルとして定式化し, 同定可能性制約の定式化を可能にすることにより, 同定可能性問題の定式化を目指す。 特に,各インスタンスに少なくとも2C - 1$のノイズラベルがあり,$C$がクラス数である場合,ノイズラベル学習問題が特定可能であることを示す。 そこで,提案手法では,近傍の雑音ラベル分布を推定し,学習サンプル毎にノイズラベルを自動生成する手法を提案する。 このようなノイズラベルを追加することで,クリーンラベルの後方推定に期待値最大化アルゴリズムを適用することができる。 提案手法は, 合成, ウェブ制御, 実世界のラベルノイズを含むいくつかの難解なラベルノイズベンチマークにおいて, ヒューリスティック性のないクリーンラベルを推定できるだけでなく, 最先端の手法との競合性も有することを示す。

Learning from noisy labels plays an important role in the deep learning era. Despite numerous studies with promising results, identifying clean labels from a noisily-annotated dataset is still challenging since the conventional noisy label learning problem with single noisy label per instance is not identifiable, i.e., it does not theoretically have a unique solution unless one has access to clean labels or introduces additional assumptions. This paper aims to formally investigate such identifiability issue by formulating the noisy label learning problem as a multinomial mixture model, enabling the formulation of the identifiability constraint. In particular, we prove that the noisy label learning problem is identifiable if there are at least $2C - 1$ noisy labels per instance provided, with $C$ being the number of classes. In light of such requirement, we propose a method that automatically generates additional noisy labels per training sample by estimating the noisy label distribution based on nearest neighbours. Such additional noisy labels allow us to apply the Expectation - Maximisation algorithm to estimate the posterior of clean labels. We empirically demonstrate that the proposed method is not only capable of estimating clean labels without any heuristics in several challenging label noise benchmarks, including synthetic, web-controlled and real-world label noises, but also of performing competitively with many state-of-the-art methods.
翻訳日:2023-01-05 15:50:09 公開日:2023-01-04
# 制約付き最適化による近接探索構成の自動化

Automating Nearest Neighbor Search Configuration with Constrained Optimization ( http://arxiv.org/abs/2301.01702v1 )

ライセンス: Link先を確認
Philip Sun, Ruiqi Guo, Sanjiv Kumar(参考訳) 近接した近接探索問題 (ANN) は、多くの実世界の機械学習アプリケーションに効率的に機能するために基礎となる。 効率的で正確でスケーラブルなANN検索のために、数多くの技術が開発されている。 しかし、そのような手法は通常、スピードリコールのトレードオフに影響を与える多くのパラメータを持ち、そのようなパラメータが適切に設定されていない場合、性能が低下する。 これらのパラメータのチューニングは伝統的に手動のプロセスであり、基礎となる検索アルゴリズムの深い知識を要求する。 ANN検索の人気が高まるにつれ、これはますます非現実的な需要になりつつある。 そこで本研究では,量子化に基づくANNアルゴリズムをチューニングするための最適化手法を提案する。 我々の技術は、所望の検索コストか、入力としてリコールし、経験上、スピードリコールのパレートフロンティアに非常に近いチューニングを生成し、標準ベンチマークでリードパフォーマンスを与えます。

The approximate nearest neighbor (ANN) search problem is fundamental to efficiently serving many real-world machine learning applications. A number of techniques have been developed for ANN search that are efficient, accurate, and scalable. However, such techniques typically have a number of parameters that affect the speed-recall tradeoff, and exhibit poor performance when such parameters aren't properly set. Tuning these parameters has traditionally been a manual process, demanding in-depth knowledge of the underlying search algorithm. This is becoming an increasingly unrealistic demand as ANN search grows in popularity. To tackle this obstacle to ANN adoption, this work proposes a constrained optimization-based approach to tuning quantization-based ANN algorithms. Our technique takes just a desired search cost or recall as input, and then generates tunings that, empirically, are very close to the speed-recall Pareto frontier and give leading performance on standard benchmarks.
翻訳日:2023-01-05 15:49:44 公開日:2023-01-04
# 機能エンジニアリングによるエネルギーシステムのデータ駆動モデルの拡張:機能エンジニアリングのためのPythonフレームワーク

Augmenting data-driven models for energy systems through feature engineering: A Python framework for feature engineering ( http://arxiv.org/abs/2301.01720v1 )

ライセンス: Link先を確認
Sandra Wilfling(参考訳) データ駆動モデリングは、エネルギーシステムモデリングにおけるアプローチであり、人気を博している。 データ駆動モデリングでは、線形回帰、ニューラルネットワーク、決定木に基づく手法などの機械学習手法が適用されている。 これらの手法はドメイン知識を必要としないが、データ品質に敏感である。 したがって、データセットのデータ品質を改善することは、機械学習ベースのモデルを作成する上で有益である。 データ品質の改善は前処理によって実現できる。 選択されたプリプロセスは機能エンジニアリングであり、データセット内の特定の機能の評価と改善に焦点を当てている。 機能エンジニアリング手法には、機能生成、機能拡張、機能選択などの方法が含まれる。 この作業では、異なる機能エンジニアリングメソッドを含むPythonフレームワークが紹介される。 このフレームワークは、特徴の生成、拡張、選択のための異なる方法を含み、さらに、データの変換やフィルタリングの方法が実装されている。 フレームワークの実装はPythonライブラリのScikit-learnに基づいている。 この枠組みはエネルギー需要予測によるユースケースのケーススタディで実証されている。 選択された特徴工学手法を含むデータ駆動モデルを作成する。 その結果,工学的特徴により予測精度が向上した。

Data-driven modeling is an approach in energy systems modeling that has been gaining popularity. In data-driven modeling, machine learning methods such as linear regression, neural networks or decision-tree based methods are being applied. While these methods do not require domain knowledge, they are sensitive to data quality. Therefore, improving data quality in a dataset is beneficial for creating machine learning-based models. The improvement of data quality can be implemented through preprocessing methods. A selected type of preprocessing is feature engineering, which focuses on evaluating and improving the quality of certain features inside the dataset. Feature engineering methods include methods such as feature creation, feature expansion, or feature selection. In this work, a Python framework containing different feature engineering methods is presented. This framework contains different methods for feature creation, expansion and selection; in addition, methods for transforming or filtering data are implemented. The implementation of the framework is based on the Python library scikit-learn. The framework is demonstrated on a case study of a use case from energy demand prediction. A data-driven model is created including selected feature engineering methods. The results show an improvement in prediction accuracy through the engineered features.
翻訳日:2023-01-05 15:49:28 公開日:2023-01-04
# グラフ状態空間モデル

Graph state-space models ( http://arxiv.org/abs/2301.01741v1 )

ライセンス: Link先を確認
Daniele Zambon, Andrea Cini, Lorenzo Livi, Cesare Alippi(参考訳) 状態空間モデルは、多変量時系列を記述し、予測されるシステム状態の更新された表現を維持することで操作する効果的なモデリングツールである。 このフレームワーク内では、例えば信号の間に存在する機能的依存関係に関連する関係帰納的バイアスは、効果的なモデリングアプローチに意図しない大きな機会を残して、明示的には利用されない。 原稿は、初めてこのギャップを埋めることを目的として、状態空間モデリングと時空間データとをマッチングし、リレーショナル情報(例えば、潜在依存関係をキャプチャする関数グラフ)をデータから直接学習し、時間とともに変更することを許す。 データ生成プロセスの不確かさを考慮に入れた確率的定式化の中で、下流タスクで状態空間モデルのエンドツーエンドを学習するためにエンコーダ・デコーダアーキテクチャを提案する。 提案手法は,いくつかの最先端手法を一般化し,制御環境における最適予測性能を達成しつつ,有意義な関係情報の抽出に有効であることを示す。

State-space models constitute an effective modeling tool to describe multivariate time series and operate by maintaining an updated representation of the system state from which predictions are made. Within this framework, relational inductive biases, e.g., associated with functional dependencies existing among signals, are not explicitly exploited leaving unattended great opportunities for effective modeling approaches. The manuscript aims, for the first time, at filling this gap by matching state-space modeling and spatio-temporal data where the relational information, say the functional graph capturing latent dependencies, is learned directly from data and is allowed to change over time. Within a probabilistic formulation that accounts for the uncertainty in the data-generating process, an encoder-decoder architecture is proposed to learn the state-space model end-to-end on a downstream task. The proposed methodological framework generalizes several state-of-the-art methods and demonstrates to be effective in extracting meaningful relational information while achieving optimal forecasting performance in controlled environments.
翻訳日:2023-01-05 15:49:15 公開日:2023-01-04
# コスト感受性の積み重ね:実証的な評価

Cost-Sensitive Stacking: an Empirical Evaluation ( http://arxiv.org/abs/2301.01748v1 )

ライセンス: Link先を確認
Natalie Lawrance and Marie-Anne Guerry and George Petrides(参考訳) 多くの現実世界の分類問題は、データインスタンス間で誤分類コストが異なるため、本質的にコストに敏感である。 コスト感受性学習は、誤分類コストの違いを考慮に入れた分類アルゴリズムに適応する。 Stackingは、複数の分類器からの予測を別の分類器のトレーニングデータとして使用するアンサンブル手法で、最終的な分類決定を行う。 様々な領域に積み重ねが適用されるような経験的作業が多数存在するが、これらの作業の中で誤分類コストを考慮に入れるものはごくわずかである。 実際、コストに敏感なスタックとは何かという文献には合意がない。 本稿では,コストに敏感なスタックングアンサンブルの適切なセットアップを確立するために,広範な実験を行う。 実例に依存しない誤分類コストを用いて,複数のアプリケーションドメインから12のデータセットを用いて実施した本実験は,最高の性能を示すためには,いずれのレベルも,コストに敏感な分類決定を必要とすることを示す。

Many real-world classification problems are cost-sensitive in nature, such that the misclassification costs vary between data instances. Cost-sensitive learning adapts classification algorithms to account for differences in misclassification costs. Stacking is an ensemble method that uses predictions from several classifiers as the training data for another classifier, which in turn makes the final classification decision. While a large body of empirical work exists where stacking is applied in various domains, very few of these works take the misclassification costs into account. In fact, there is no consensus in the literature as to what cost-sensitive stacking is. In this paper we perform extensive experiments with the aim of establishing what the appropriate setup for a cost-sensitive stacking ensemble is. Our experiments, conducted on twelve datasets from a number of application domains, using real, instance-dependent misclassification costs, show that for best performance, both levels of stacking require cost-sensitive classification decision.
翻訳日:2023-01-05 15:48:56 公開日:2023-01-04
# LSTM法によるクエーサーの中心超大質量ブラックホール質量のモデル化

Modeling the Central Supermassive Black Holes Mass of Quasars via LSTM Approach ( http://arxiv.org/abs/2301.01459v1 )

ライセンス: Link先を確認
Seyed Sajad Tabasi, Reyhaneh Vojoudi Salmani, Pouriya Khaliliyan, and Javad T. Firouzjaee(参考訳) クエーサーに関する基本的な問題の1つは、その中心の超大質量ブラックホールに関するものである。 このような巨大な質量を持つブラックホールが存在する理由はまだ不明であり、それらの説明のために様々なモデルが提案されている。 しかし、コミュニティによって受け入れられる包括的説明はいまだに存在しない。 このブラックホールは、巨大星の崩壊や、周囲の物質の蓄積によって作られたものではありません。 さらに、別の重要な疑問は、時間とともにこれらのブラックホールの質量分布である。 観測によると、赤方偏移を通り抜ければ、質量が増えたブラックホールが見え、星形成のピークを過ぎると、この手順は減少する。 しかし、このピークの正確な赤方偏移はいまだに議論の余地がある。 本稿では、深層学習とlstmアルゴリズムを用いて、クエーサーの中央ブラックホールの質量を時間とともに求め、クエーサーネットデータを考慮し、適切なモデルを見いだそうとした。 このモデルでは、赤方偏移3から7、赤方偏移0から3と7から10の2つの赤方偏移間隔について、クエーサーの中心超大質量ブラックホールの質量を予測した。 また、中央ブラックホールから観測されたデータを用いて、特定間隔のモデルもテストし、結果について考察した。

One of the fundamental questions about quasars is related to their central supermassive black holes. The reason for the existence of these black holes with such a huge mass is still unclear and various models have been proposed to explain them. However, there is still no comprehensive explanation that is accepted by the community. The only thing we are sure of is that these black holes were not created by the collapse of giant stars, nor by the accretion of matter around them. Moreover, another important question is the mass distribution of these black holes over time. Observations have shown that if we go back through redshift, we see black holes with more masses, and after passing the peak of star formation redshift, this procedure decreases. Nevertheless, the exact redshift of this peak is still controversial. In this paper, with the help of deep learning and the LSTM algorithm, we tried to find a suitable model for the mass of central black holes of quasars over time by considering QuasarNET data. Our model was built with these data reported from redshift 3 to 7 and for two redshift intervals 0 to 3 and 7 to 10, it predicted the mass of the quasar's central supermassive black holes. We have also tested our model for the specified intervals with observed data from central black holes and discussed the results.
翻訳日:2023-01-05 15:48:14 公開日:2023-01-04
# robofriend: adpative storytelling robot teddy bear - テクニカルレポート

Robofriend: An Adpative Storytelling Robotic Teddy Bear -- Technical Report ( http://arxiv.org/abs/2301.01576v1 )

ライセンス: Link先を確認
Ido Glanz, Matan Weksler, Erez Karpas, Tzipi Horowitz-Kraus(参考訳) 本稿では,子どもに物語を伝えるロボットテディベアのRobofriendについて述べる。 ロボフレンドはその行動に適応し、強化学習を用いて子供たちの注意を維持する。

In this paper we describe Robofriend, a robotic teddy bear for telling stories to young children. Robofriend adapts its behavior to keep the childrens' attention using reinforcement learning.
翻訳日:2023-01-05 15:47:52 公開日:2023-01-04
# 属性中心合成テキスト・画像生成

Attribute-Centric Compositional Text-to-Image Generation ( http://arxiv.org/abs/2301.01413v1 )

ライセンス: Link先を確認
Yuren Cong, Martin Renqiang Min, Li Erran Li, Bodo Rosenhahn, Michael Ying Yang(参考訳) 近年のテキスト・ツー・イメージ生成の画期的な進歩にもかかわらず、生成モデルは、過度に記憶された過剰な属性合成を記憶しながら、未表現の属性合成のデータ分布を捉えるのに困難である。 この課題に対処するため,属性中心の合成テキスト・画像生成フレームワークであるACTIGを提案する。 属性中心の特徴強化と,モデルが表現不足な属性で画像を生成する能力を大幅に向上させる新しい画像自由トレーニング手法を提案する。 さらに、過剰表現された属性合成への過度な適合を避けるために、属性中心のコントラスト損失を提案する。 CelebA-HQおよびCUBデータセット上で、我々のフレームワークを検証する。 広範な実験により,actigの合成汎化は卓越しており,画像品質やテキスト・画像一貫性の面では,従来の手法よりも優れていることが示された。

Despite the recent impressive breakthroughs in text-to-image generation, generative models have difficulty in capturing the data distribution of underrepresented attribute compositions while over-memorizing overrepresented attribute compositions, which raises public concerns about their robustness and fairness. To tackle this challenge, we propose ACTIG, an attribute-centric compositional text-to-image generation framework. We present an attribute-centric feature augmentation and a novel image-free training scheme, which greatly improves model's ability to generate images with underrepresented attributes. We further propose an attribute-centric contrastive loss to avoid overfitting to overrepresented attribute compositions. We validate our framework on the CelebA-HQ and CUB datasets. Extensive experiments show that the compositional generalization of ACTIG is outstanding, and our framework outperforms previous works in terms of image quality and text-image consistency.
翻訳日:2023-01-05 15:42:05 公開日:2023-01-04
# セミMAE:半教師視変換器用マスク付きオートエンコーダ

Semi-MAE: Masked Autoencoders for Semi-supervised Vision Transformers ( http://arxiv.org/abs/2301.01431v1 )

ライセンス: Link先を確認
Haojie Yu, Kang Zhao, Xiaoming Xu(参考訳) vision transformer(vit)は、半教師付き学習(ssl)におけるデータ不足に苦しむ。 データ効率のよい自己教師型学習者であるマスク付きオートエンコーダ(MAE)に触発されたこの問題を軽減するため、並列MAEブランチからなる純粋なViTベースのSSLフレームワークであるSemi-MAEを提案し、視覚表現学習を支援し、擬似ラベルをより正確にする。 MAEブランチは、軽量デコーダと共有重み付きエンコーダからなる非対称アーキテクチャとして設計されている。 弱強化された未ラベルデータをMAEブランチに対して高いマスキング比で供給し、欠落したピクセルを再構成する。 Semi-MAE は ImageNet の75.9% のトップ-1 の精度を10% のラベルで達成し、半教師付き画像分類における最先端技術を上回っている。 さらに,Semi-MAEは,他のViTモデルやマスク画像モデリング手法にも容易に適用可能であることを示した。

Vision Transformer (ViT) suffers from data scarcity in semi-supervised learning (SSL). To alleviate this issue, inspired by masked autoencoder (MAE), which is a data-efficient self-supervised learner, we propose Semi-MAE, a pure ViT-based SSL framework consisting of a parallel MAE branch to assist the visual representation learning and make the pseudo labels more accurate. The MAE branch is designed as an asymmetric architecture consisting of a lightweight decoder and a shared-weights encoder. We feed the weakly-augmented unlabeled data with a high masking ratio to the MAE branch and reconstruct the missing pixels. Semi-MAE achieves 75.9% top-1 accuracy on ImageNet with 10% labels, surpassing prior state-of-the-art in semi-supervised image classification. In addition, extensive experiments demonstrate that Semi-MAE can be readily used for other ViT models and masked image modeling methods.
翻訳日:2023-01-05 15:41:49 公開日:2023-01-04
# 低分解能リモートセンシング画像による建物被覆の推定

Building Coverage Estimation with Low-resolution Remote Sensing Imagery ( http://arxiv.org/abs/2301.01449v1 )

ライセンス: Link先を確認
Enci Liu, Chenlin Meng, Matthew Kolodner, Eun Jee Sung, Sihang Chen, Marshall Burke, David Lobell, Stefano Ermon(参考訳) 建物のカバレッジ統計は、地域の都市化、インフラ、貧困レベルに関する重要な洞察を提供し、貧困を緩和し、持続可能な都市を構築し、インフラ投資と公共サービスの提供を割り当てる努力を促進する。 ディープラーニングモデルのパイプラインへの導入により、建物のグローバルマッピングがより効率的になった。 しかし、これらのモデルは一般的に高解像度の衛星画像に頼っている。 その結果、ビルド環境が急速に変化している発展途上国では、ビルドカバレッジデータはタイムリーに更新されない。 本稿では,より頻繁に更新される低解像度衛星画像のみを用いて,建築カバレッジを推定する手法を提案する。 マルチノード量子化回帰層を持つことで,モデルの空間的および時間的一般化が大幅に向上することを示す。 本モデルでは, 世界の開発レベルの異なる地域における建築範囲の予測において, 最大0.968の判定係数(R^2$)を達成する。 提案モデルでは,低解像度リモートセンシングデータのみを用いて,建物被覆量を正確に予測し,未確認の国や大陸に最適化し,グローバルな建物被覆量を推定できる可能性が示唆された。

Building coverage statistics provide crucial insights into the urbanization, infrastructure, and poverty level of a region, facilitating efforts towards alleviating poverty, building sustainable cities, and allocating infrastructure investments and public service provision. Global mapping of buildings has been made more efficient with the incorporation of deep learning models into the pipeline. However, these models typically rely on high-resolution satellite imagery which are expensive to collect and infrequently updated. As a result, building coverage data are not updated timely especially in developing regions where the built environment is changing quickly. In this paper, we propose a method for estimating building coverage using only publicly available low-resolution satellite imagery that is more frequently updated. We show that having a multi-node quantile regression layer greatly improves the model's spatial and temporal generalization. Our model achieves a coefficient of determination ($R^2$) as high as 0.968 on predicting building coverage in regions of different levels of development around the world. We demonstrate that the proposed model accurately predicts the building coverage from raw input images and generalizes well to unseen countries and continents, suggesting the possibility of estimating global building coverage using only low-resolution remote sensing data.
翻訳日:2023-01-05 15:41:31 公開日:2023-01-04
# 動作に基づく後処理:Kalmanフィルタを用いた水中物体追跡における類似目標抽出

Motion-based Post-Processing: Using Kalman Filter to Exclude Similar Targets in Underwater Object Tracking ( http://arxiv.org/abs/2301.01482v1 )

ライセンス: Link先を確認
Yunfeng Li, Bo Wang, Ye Li, Wei Huo, Zhuoyan Liu(参考訳) visual trackerにはネットワークとポストプロセッシングが含まれている。 水中画像の色歪みやコントラストが低いにもかかわらず、深層学習によってターゲットの外観特徴を識別できるため、高度トラッカーは水中物体追跡において非常に競争力がある。 しかし、水中の物体追跡もまた別の問題に直面している。 魚やイルカのような水中の標的は通常群れに出現し、同じ種の生物は外見の特徴の類似した表現を持つため、ネットワーク自体によってのみ弱い特徴を区別することは困難である。 既存の検出ベースの後処理は、単一のフレーム検出の結果のみを反映するが、類似したターゲットの実際のターゲットを見つけることはできない。 本稿では,kalmanフィルタ(kf)を用いた動きに基づく新しい後処理戦略を提案する。 具体的には、KF予測ボックスと応答マップ内の候補ボックスと信頼度を用いて、候補位置スコアを算出し、実際の目標を求める。 本手法ではネットワーク構造は変更せず,トラッカに対する追加トレーニングも行わない。 同様のターゲット問題のある他の追跡フィールドに迅速に適用することができる。 提案手法に基づいてSOTAトラッカーを改良し,UOT100およびUTB180上での有効性を実証した。 類似サブシーケンスにおけるOSTrackのAUCは平均で3%以上改善され、精度と正規化精度は平均で3.5%以上向上した。 提案手法は,類似した目標問題に対処し,他の手法と併用してトラッカーの性能を向上させることができることが証明された。 詳細はhttps://github.com/LiYunfengLYF/KF_in_underwater_trackersを参照してください。

Visual tracker includes network and post-processing. Despite the color distortion and low contrast of underwater images, advanced trackers can still be very competitive in underwater object tracking because deep learning empowers the networks to discriminate the appearance features of the target. However, underwater object tracking also faces another problem. Underwater targets such as fish and dolphins, usually appear in groups, and creatures of the same species usually have similar expressions of appearance features, so it is challenging to distinguish the weak differences characteristics only by the network itself. The existing detection-based post-processing only reflects the results of single frame detection, but cannot locate real targets among similar targets. In this paper, we propose a new post-processing strategy based on motion, which uses Kalman filter (KF) to maintain the motion information of the target and exclude similar targets around. Specifically, we use the KF predicted box and the candidate boxes in the response map and their confidence to calculate the candidate location score to find the real target. Our method does not change the network structure, nor does it perform additional training for the tracker. It can be quickly applied to other tracking fields with similar target problem. We improved SOTA trackers based on our method, and proved the effectiveness of our method on UOT100 and UTB180. The AUC of our method for OSTrack on similar subsequences is improved by more than 3% on average, and the precision and normalization precision are improved by more than 3.5% on average. It has been proved that our method has good compatibility in dealing with similar target problems and can enhance performance of the tracker together with other methods. More details can be found in: https://github.com/LiYunfengLYF/KF_in_underwater_trackers.
翻訳日:2023-01-05 15:41:12 公開日:2023-01-04
# ニューラルレンダリングを利用したVRテレプレゼンスとライブ放送のためのリアルタイム顔可視化パイプライン

Towards a Pipeline for Real-Time Visualization of Faces for VR-based Telepresence and Live Broadcasting Utilizing Neural Rendering ( http://arxiv.org/abs/2301.01490v1 )

ライセンス: Link先を確認
Philipp Ladwig, Rene Ebertowski, Alexander Pech, Ralf D\"orner, Christian Geiger(参考訳) 仮想現実(VR)用のヘッドマウントディスプレイ(HMD)は消費者市場に広く普及しているが、HMDが参加者の顔の大部分を隠しているため、現実的な対面会話にはかなりの障害が生じる。 hmdに直接取り付けられたカメラからの映像ストリームであっても、視野が広いため、極端なキャプチャアングルと強いレンズ歪みのため、顔全体の説得力のある画像を縫い合わせることは難しい課題である。 VRの長い研究ラインと比較して、HMDの下に隠された顔の再構築は、非常に最近の研究のトピックである。 現在の最先端のソリューションは、フォトリアリスティックな3D再構成結果を示しているが、高価な実験装置と計算コストを必要とする。 本稿では,低コストなハードウェアに焦点をあて,単一のGPUを用いたコモディティゲームコンピュータで使用できるアプローチを提案する。 我々は,GAN(Generative Adversarial Networks)によるエンドツーエンドパイプラインのメリットを活用している。 私たちのganは、rgbdカメラでキャプチャされたトレーニングデータセットに基づいて、前面2.5dポイントクラウドを生成します。 このアプローチでは、トレーニングプロセスはオフラインで、再構築はリアルタイムで実行される。 以上の結果から,'学習'表現における適切な再構成品質を示す。 ネットワークで学ばない表現はアーティファクトを生成し、アンキャニー・バレー効果を引き起こす可能性がある。

While head-mounted displays (HMDs) for Virtual Reality (VR) have become widely available in the consumer market, they pose a considerable obstacle for a realistic face-to-face conversation in VR since HMDs hide a significant portion of the participants faces. Even with image streams from cameras directly attached to an HMD, stitching together a convincing image of an entire face remains a challenging task because of extreme capture angles and strong lens distortions due to a wide field of view. Compared to the long line of research in VR, reconstruction of faces hidden beneath an HMD is a very recent topic of research. While the current state-of-the-art solutions demonstrate photo-realistic 3D reconstruction results, they require high-cost laboratory equipment and large computational costs. We present an approach that focuses on low-cost hardware and can be used on a commodity gaming computer with a single GPU. We leverage the benefits of an end-to-end pipeline by means of Generative Adversarial Networks (GAN). Our GAN produces a frontal-facing 2.5D point cloud based on a training dataset captured with an RGBD camera. In our approach, the training process is offline, while the reconstruction runs in real-time. Our results show adequate reconstruction quality within the 'learned' expressions. Expressions not learned by the network produce artifacts and can trigger the Uncanny Valley effect.
翻訳日:2023-01-05 15:40:43 公開日:2023-01-04
# 個人の保護装置検出のためのエッジクラウドアーキテクチャ

Towards Edge-Cloud Architectures for Personal Protective Equipment Detection ( http://arxiv.org/abs/2301.01501v1 )

ライセンス: Link先を確認
Jaroslaw Legierski, Kajetan Rachwal, Piotr Sowinski, Wojciech Niewolski, Przemyslaw Ratuszek, Zbigniew Kopertowski, Marcin Paprzycki, Maria Ganzha(参考訳) 画像・映像ストリームにおける個人保護装置の検出は,建設作業員の安全確保に重要な課題である。 本稿では,このような機器のライブ画像認識を実現するアーキテクチャを提案する。 ソリューションはエッジクラウドとエッジのみの2つの設定でデプロイできる。 このシステムは、ASSIST-IoT H2020プロジェクトの範囲内で、より大きなシナリオの一部として、アクティブな建設現場でテストされた。 エッジのみの変種の実現可能性を明らかにするため,YOLOX法による安全ヘルメット着用者数推定モデルを開発した。 現場で利用可能なハードウェアインフラストラクチャを考えると、このユースケースではエッジのみのデプロイメントが可能であることが分かりました。 予備評価では、システムのさらなる開発と展開に不可欠ないくつかの重要な観測が行われた。 今後の作業には、2つのアーキテクチャの亜種のパフォーマンスに関する詳細な調査が含まれる。

Detecting Personal Protective Equipment in images and video streams is a relevant problem in ensuring the safety of construction workers. In this contribution, an architecture enabling live image recognition of such equipment is proposed. The solution is deployable in two settings -- edge-cloud and edge-only. The system was tested on an active construction site, as a part of a larger scenario, within the scope of the ASSIST-IoT H2020 project. To determine the feasibility of the edge-only variant, a model for counting people wearing safety helmets was developed using the YOLOX method. It was found that an edge-only deployment is possible for this use case, given the hardware infrastructure available on site. In the preliminary evaluation, several important observations were made, that are crucial to the further development and deployment of the system. Future work will include an in-depth investigation of performance aspects of the two architecture variants.
翻訳日:2023-01-05 15:40:22 公開日:2023-01-04
# MoBYv2AL:画像分類のための自己教師型アクティブラーニング

MoBYv2AL: Self-supervised Active Learning for Image Classification ( http://arxiv.org/abs/2301.01531v1 )

ライセンス: Link先を確認
Razvan Caramalau, Binod Bhattarai, Danail Stoyanov, Tae-Kyun Kim(参考訳) active learning(al)は最近、ディープラーニング(dl)モデルで人気を集めている。 これは、特に学習者が大規模なラベル付きデータセットを必要とする場合、効率的で情報的なサンプリングが原因である。 通常、サンプリングとトレーニングはステージで行われ、より多くのバッチが追加される。 この戦略の主なボトルネックは、AL選択全体に影響を与えるモデルによって学習された狭い表現である。 画像分類のための自己教師型アクティブラーニングフレームワークであるMoBYv2ALを提案する。 私たちの貢献は、最も成功した自己教師付き学習アルゴリズムであるMoBYをALパイプラインに持ち上げることです。 このように、下流タスク認識目的関数を追加し、コントラスト損失と共同で最適化する。 さらに,新しい例のラベル付けからデータ分布選択関数を導出する。 最後に,画像分類タスクにおけるパイプラインのロバスト性と性能をテスト・検討した。 近年のAL法と比較して,最先端の結果が得られた。 コード提供: https://github.com/razvancaramalau/mobyv2al

Active learning(AL) has recently gained popularity for deep learning(DL) models. This is due to efficient and informative sampling, especially when the learner requires large-scale labelled datasets. Commonly, the sampling and training happen in stages while more batches are added. One main bottleneck in this strategy is the narrow representation learned by the model that affects the overall AL selection. We present MoBYv2AL, a novel self-supervised active learning framework for image classification. Our contribution lies in lifting MoBY, one of the most successful self-supervised learning algorithms, to the AL pipeline. Thus, we add the downstream task-aware objective function and optimize it jointly with contrastive loss. Further, we derive a data-distribution selection function from labelling the new examples. Finally, we test and study our pipeline robustness and performance for image classification tasks. We successfully achieved state-of-the-art results when compared to recent AL methods. Code available: https://github.com/razvancaramalau/MoBYv2AL
翻訳日:2023-01-05 15:40:10 公開日:2023-01-04
# stereodistill: ステレオベースの3dオブジェクト検出用lidarからクリームを抽出

StereoDistill: Pick the Cream from LiDAR for Distilling Stereo-based 3D Object Detection ( http://arxiv.org/abs/2301.01615v1 )

ライセンス: Link先を確認
Zhe Liu, Xiaoqing Ye, Xiao Tan, Errui Ding, Xiang Bai(参考訳) 本稿では,StereoDistillというクロスモーダル蒸留法を提案し,3次元物体検出蒸留で通常見過ごされる優れたLiDARモデルからステレオ検出器を蒸留することで,ステレオとLiDARをベースとしたアプローチのギャップを狭める。 ステレオ蒸留の主な設計は、回帰のためのX成分誘導蒸留(XGD)と分類のためのクロスアンカー論理蒸留(CLD)である。 XGDでは、高品質な教師予測をソフトターゲットとして選択するためのしきい値を経験的に採用するのではなく、予測された3Dボックスをサブコンポーネントに分解し、教師コンポーネントパイロットが地上の真実と整合性を保ち、肯定的な予測の数を大幅に増加させ、学生モデルの模倣困難を緩和する。 CLDの場合、各アンカーの確率分布を同じ位置に集約し、アンカーレベルでの分布を個別に蒸留するのではなく、最も高い確率アンカーを奨励する。 最後に,我々のStereoDistillは,KITTIテストベンチマークにおけるステレオベース3D検出の最先端結果と,KITTIとArgoverse Datasetの広範な実験により,その妥当性が検証された。

In this paper, we propose a cross-modal distillation method named StereoDistill to narrow the gap between the stereo and LiDAR-based approaches via distilling the stereo detectors from the superior LiDAR model at the response level, which is usually overlooked in 3D object detection distillation. The key designs of StereoDistill are: the X-component Guided Distillation~(XGD) for regression and the Cross-anchor Logit Distillation~(CLD) for classification. In XGD, instead of empirically adopting a threshold to select the high-quality teacher predictions as soft targets, we decompose the predicted 3D box into sub-components and retain the corresponding part for distillation if the teacher component pilot is consistent with ground truth to largely boost the number of positive predictions and alleviate the mimicking difficulty of the student model. For CLD, we aggregate the probability distribution of all anchors at the same position to encourage the highest probability anchor rather than individually distill the distribution at the anchor level. Finally, our StereoDistill achieves state-of-the-art results for stereo-based 3D detection on the KITTI test benchmark and extensive experiments on KITTI and Argoverse Dataset validate the effectiveness.
翻訳日:2023-01-05 15:39:57 公開日:2023-01-04
# RecRecNet:薄膜スプラインモデルとDoFに基づくカリキュラム学習による修正広角画像の整形化

RecRecNet: Rectangling Rectified Wide-Angle Images by Thin-Plate Spline Model and DoF-based Curriculum Learning ( http://arxiv.org/abs/2301.01661v1 )

ライセンス: Link先を確認
Kang Liao, Lang Nie, Chunyu Lin, Zishuo Zheng, Yao Zhao(参考訳) 広角レンズはVR技術の魅力的な応用例だが、撮像された画像に厳しい半径歪みをもたらす。 現実的なシーンを回復するため、以前の作品では広角画像の内容の修正に取り組んでいた。 しかし、そのような整流解は必然的に画像境界を歪め、関連する幾何学的分布を変化させ、現在の視覚知覚モデルを誤解させる。 本研究では,新たな学習モデルであるrecrecnet(retangling rectification network)のコンテントとバウンダリの両方におけるwin-win表現の構築について検討する。 特に,直交画像に対する非線形および非剛性変換を定式化する薄板スプライン (TPS) モジュールを提案する。 補正画像の制御ポイントを学習することにより, 対象領域に柔軟にソース構造を付与し, エンドツーエンドの教師なし変形を実現する。 構造近似の複雑さを軽減するため、我々はRecRecNetにインスピレーションを与え、DoF(Degree of Freedom)ベースのカリキュラム学習で段階的な変形規則を学ぶ。 各カリキュラムステージにおけるdof、すなわち類似度変換(4-dof)からホモグラフィ変換(8-dof)を増加させることにより、ネットワークはより詳細な変形を調査でき、最終整流タスクの高速収束を提供する。 実験では, 定量的評価と質的評価の両方において, 比較法よりも溶液の優越性を示す。 コードとデータセットが利用可能になる。

The wide-angle lens shows appealing applications in VR technologies, but it introduces severe radial distortion into its captured image. To recover the realistic scene, previous works devote to rectifying the content of the wide-angle image. However, such a rectification solution inevitably distorts the image boundary, which potentially changes related geometric distributions and misleads the current vision perception models. In this work, we explore constructing a win-win representation on both content and boundary by contributing a new learning model, i.e., Rectangling Rectification Network (RecRecNet). In particular, we propose a thin-plate spline (TPS) module to formulate the non-linear and non-rigid transformation for rectangling images. By learning the control points on the rectified image, our model can flexibly warp the source structure to the target domain and achieves an end-to-end unsupervised deformation. To relieve the complexity of structure approximation, we then inspire our RecRecNet to learn the gradual deformation rules with a DoF (Degree of Freedom)-based curriculum learning. By increasing the DoF in each curriculum stage, namely, from similarity transformation (4-DoF) to homography transformation (8-DoF), the network is capable of investigating more detailed deformations, offering fast convergence on the final rectangling task. Experiments show the superiority of our solution over the compared methods on both quantitative and qualitative evaluations. The code and dataset will be made available.
翻訳日:2023-01-05 15:39:33 公開日:2023-01-04
# 視聴覚異常検出による自己監視ビデオ鑑識

Self-Supervised Video Forensics by Audio-Visual Anomaly Detection ( http://arxiv.org/abs/2301.01767v1 )

ライセンス: Link先を確認
Chao Feng, Ziyang Chen, Andrew Owens(参考訳) 操作ビデオには、視覚信号と音声信号の間に微妙な矛盾があることが多い。 そこで本研究では,このような不整合を識別し,ラベルのない実データのみを用いて訓練できる映像解析手法を提案する。 ビデオフレームと音声の時間同期をキャプチャする特徴セットを用いて,自動回帰モデルを用いて音声・視覚特徴のシーケンスを生成する。 テスト時には、モデルが低い確率を割り当てたビデオにフラグを付ける。 実映像のみを訓練したものの,操作された音声映像の検出作業において強い性能を得られた。 プロジェクトサイト: https://cfeng16.github.io/audio-visual-forensics

Manipulated videos often contain subtle inconsistencies between their visual and audio signals. We propose a video forensics method, based on anomaly detection, that can identify these inconsistencies, and that can be trained solely using real, unlabeled data. We train an autoregressive model to generate sequences of audio-visual features, using feature sets that capture the temporal synchronization between video frames and sound. At test time, we then flag videos that the model assigns low probability. Despite being trained entirely on real videos, our model obtains strong performance on the task of detecting manipulated speech videos. Project site: https://cfeng16.github.io/audio-visual-forensics
翻訳日:2023-01-05 15:39:04 公開日:2023-01-04
# 学習直交表現による多感性属性を用いた医用画像分類の公平性について

On Fairness of Medical Image Classification with Multiple Sensitive Attributes via Learning Orthogonal Representations ( http://arxiv.org/abs/2301.01481v1 )

ライセンス: Link先を確認
Wenlong Deng, Yuan Zhong, Qi Dou, Xiaoxiao Li(参考訳) 医療画像解析において,機械学習モデルの識別の緩和が注目されている。 しかし、稀な研究は、複数のセンシティブな人口動態を持つ患者に対する公平な治療に焦点を当てており、これは現実の臨床応用にとって非常に難しい問題である。 本稿では,マルチセンシティブ属性に対する公平表現学習のための新しい手法を提案する。 表現空間における直交性を達成することにより,対象表現と多感表現の独立性を追求する。 具体的には,コラム空間の直交性は,低ランク感性空間の補数に対する目標情報を保持することによって行う。 さらに、行空間では、ターゲットと感度表現の間の特徴次元が直交することを奨励する。 提案手法の有効性は,CheXpertデータセット上での実験により実証された。 我々の知る限り、医療画像の分野では、複数の感度特性に関して不公平を緩和する最初の試みである。

Mitigating the discrimination of machine learning models has gained increasing attention in medical image analysis. However, rare works focus on fair treatments for patients with multiple sensitive demographic ones, which is a crucial yet challenging problem for real-world clinical applications. In this paper, we propose a novel method for fair representation learning with respect to multi-sensitive attributes. We pursue the independence between target and multi-sensitive representations by achieving orthogonality in the representation space. Concretely, we enforce the column space orthogonality by keeping target information on the complement of a low-rank sensitive space. Furthermore, in the row space, we encourage feature dimensions between target and sensitive representations to be orthogonal. The effectiveness of the proposed method is demonstrated with extensive experiments on the CheXpert dataset. To our best knowledge, this is the first work to mitigate unfairness with respect to multiple sensitive attributes in the field of medical imaging.
翻訳日:2023-01-05 15:32:51 公開日:2023-01-04
# ベックマン防衛

Beckman Defense ( http://arxiv.org/abs/2301.01495v1 )

ライセンス: Link先を確認
A. V. Subramanyam(参考訳) 最適輸送 (OT) に基づく分散ロバスト最適化 (DRO) は近年, 注目を集めている。 しかし、これは初期段階にあるが、深層学習モデルの堅牢化には大きな可能性を秘めている。 興味深いことに、OTバリセンターは敵の攻撃に対して良好な堅牢性を示す。 OTバリセンタの計算的高価さのため、DROフレームワーク下では研究されていない。 そこで本研究では,対向訓練と連動して,対向攻撃に対してネットワークを防御する訓練を行うため,効率的に計算できる新しいバリセンタであるベックマン・バリセンタを提案する。 本稿では, 入力画像の辺縁を用いて, beckman barycenter の新しい定式化法を提案し, 解析的にbarycenter を得る。 ベックマン・バリセンターは、敵に訓練されたネットワークをトレーニングし、ロバスト性を向上させることができることを示す。 私たちの訓練は一時期の訓練しか必要としないので、非常に効率的です。 CIFAR-10、CIFAR-100、Tiny ImageNetの実験により、ベックマン・バリセンターと対向的に堅牢なネットワークをトレーニングすることで、性能が大幅に向上することを示した。 自動攻撃では、CIFAR-10では最大10\%、CIFAR-100では8.34\%、Tiny ImageNetでは11.51\%となる。 私たちのコードはhttp://bitly.ws/yvghで利用可能です。

Optimal transport (OT) based distributional robust optimisation (DRO) has received some traction in the recent past. However, it is at a nascent stage but has a sound potential in robustifying the deep learning models. Interestingly, OT barycenters demonstrate a good robustness against adversarial attacks. Owing to the computationally expensive nature of OT barycenters, they have not been investigated under DRO framework. In this work, we propose a new barycenter, namely Beckman barycenter, which can be computed efficiently and used for training the network to defend against adversarial attacks in conjunction with adversarial training. We propose a novel formulation of Beckman barycenter and analytically obtain the barycenter using the marginals of the input image. We show that the Beckman barycenter can be used to train adversarially trained networks to improve the robustness. Our training is extremely efficient as it requires only a single epoch of training. Elaborate experiments on CIFAR-10, CIFAR-100 and Tiny ImageNet demonstrate that training an adversarially robust network with Beckman barycenter can significantly increase the performance. Under auto attack, we get a a maximum boost of 10\% in CIFAR-10, 8.34\% in CIFAR-100 and 11.51\% in Tiny ImageNet. Our code is available at http://bitly.ws/yvgh.
翻訳日:2023-01-05 15:32:36 公開日:2023-01-04
# covid-net uspro: 医療用超音波画像からcovid-19感染をモニターし検出する、オープンソースのマイノリティネットワーク

COVID-Net USPro: An Open-Source Explainable Few-Shot Deep Prototypical Network to Monitor and Detect COVID-19 Infection from Point-of-Care Ultrasound Images ( http://arxiv.org/abs/2301.01679v1 )

ライセンス: Link先を確認
Jessy Song and Ashkan Ebadi and Adrian Florea and Pengcheng Xi and St\'ephane Tremblay and Alexander Wong(参考訳) コロナウイルス病2019(COVID-19)は、生命や世界の医療システムに影響を与え続けているため、ウイルスのさらなる拡散を防ぎ、医療提供者への負担を軽減するために、迅速かつ効果的なスクリーニング手法の採用が不可欠である。 安価で広くアクセス可能な医療画像モダリティとして、pos(point-of-care ultrasound)イメージングは、放射線科医が症状を識別し、胸部超音波画像の視覚的検査を通じて重症度を評価することを可能にする。 コンピュータ科学の最近の進歩と相まって、深層学習技術の医療画像解析への応用は有望な結果を示し、人工知能ベースのソリューションが新型コロナウイルスの診断を加速し、医療専門家の負担を軽減できることを示した。 しかし、大量の十分な注釈データがないことは、新しい疾患やパンデミックの場合、効果的なディープニューラルネットワークを構築する上で課題となる。 そこで我々は,covid-19陽性症例を高精度に監視・検出し,最小超音波画像からリコールするシステムであるcovid-19-net usproを提案する。 COVID-Net USPro の総合精度は 99.65%、リコールは 99.7%、陽性例は 99.67% である。 分析パイプラインと分析結果は,POCUS解釈の経験が豊富であり,ネットワークが実際のパターンに基づいて意思決定を行うことが保証された。

As the Coronavirus Disease 2019 (COVID-19) continues to impact many aspects of life and the global healthcare systems, the adoption of rapid and effective screening methods to prevent further spread of the virus and lessen the burden on healthcare providers is a necessity. As a cheap and widely accessible medical image modality, point-of-care ultrasound (POCUS) imaging allows radiologists to identify symptoms and assess severity through visual inspection of the chest ultrasound images. Combined with the recent advancements in computer science, applications of deep learning techniques in medical image analysis have shown promising results, demonstrating that artificial intelligence-based solutions can accelerate the diagnosis of COVID-19 and lower the burden on healthcare professionals. However, the lack of a huge amount of well-annotated data poses a challenge in building effective deep neural networks in the case of novel diseases and pandemics. Motivated by this, we present COVID-Net USPro, an explainable few-shot deep prototypical network, that monitors and detects COVID-19 positive cases with high precision and recall from minimal ultrasound images. COVID-Net USPro achieves 99.65% overall accuracy, 99.7% recall and 99.67% precision for COVID-19 positive cases when trained with only 5 shots. The analytic pipeline and results were verified by our contributing clinician with extensive experience in POCUS interpretation, ensuring that the network makes decisions based on actual patterns.
翻訳日:2023-01-05 15:32:14 公開日:2023-01-04
# 2レベル最適化のための1次ペナルティ法

First-order penalty methods for bilevel optimization ( http://arxiv.org/abs/2301.01716v1 )

ライセンス: Link先を確認
Zhaosong Lu and Sanyou Mei(参考訳) 本稿では,下層部が凸最適化問題,上層部が非凸最適化問題,下層部が凸最適化問題,下層部が非凸最適化問題という2次最適化問題のクラスについて検討する。 特に,サブプロブレムが構造化されたミニマックス問題であることが判明し,本論文で開発した一階法で最適に解決できるペナルティ法を提案する。 いくつかの適切な仮定の下で、制約のない双レベル最適化問題の$\varepsilon$-KKTソリューションを見つけるための提案されたペナルティ法に対して、${\cal O}(\varepsilon^{-4}\log\varepsilon^{-1})$と${\cal O}(\varepsilon^{-7}\log\varepsilon^{-1})$の \emph{operation complexity} が確立されている。 我々の知る限りでは、本論文の方法論と成果は新しいものである。

In this paper we study a class of unconstrained and constrained bilevel optimization problems in which the lower-level part is a convex optimization problem, while the upper-level part is possibly a nonconvex optimization problem. In particular, we propose penalty methods for solving them, whose subproblems turn out to be a structured minimax problem and are suitably solved by a first-order method developed in this paper. Under some suitable assumptions, an \emph{operation complexity} of ${\cal O}(\varepsilon^{-4}\log\varepsilon^{-1})$ and ${\cal O}(\varepsilon^{-7}\log\varepsilon^{-1})$, measured by their fundamental operations, is established for the proposed penalty methods for finding an $\varepsilon$-KKT solution of the unconstrained and constrained bilevel optimization problems, respectively. To the best of our knowledge, the methodology and results in this paper are new.
翻訳日:2023-01-05 15:31:45 公開日:2023-01-04
# Wasserstein-Fisher-Rao勾配流を用いたガウス混合学習

Learning Gaussian Mixtures Using the Wasserstein-Fisher-Rao Gradient Flow ( http://arxiv.org/abs/2301.01766v1 )

ライセンス: Link先を確認
Yuling Yan, Kaizheng Wang, Philippe Rigollet(参考訳) ガウス混合モデルは柔軟で表現力のある分布のパラメトリック族を形成し、様々な応用で応用されている。 残念ながら、これらのモデルをデータに適合させることは、計算の観点から非常に難しい問題である。 現在、モーメントベースの手法のみが理論的保証を享受しているが、確率ベースの手法は単純な例では失敗することが知られている期待最大化のようなヒューリスティックによって支配されている。 本研究では,ガウス混合モデルを用いて非パラメトリック最大推定器(NPMLE)を計算するための新しいアルゴリズムを提案する。 本手法は,収束保証を確立するWasserstein-Fisher-Rao幾何を備えた確率測度空間上の勾配勾配に基づく。 実際には、粒子の重量と位置を交互に更新する相互作用粒子系を用いて近似することができる。 提案アルゴリズムの有効性を確認するために, 従来のベンチマークだけでなく, より単純なジオメトリに関して, 同様の勾配降下アルゴリズムも行った。 特に、これらのシミュレーションは相互作用する粒子の重みと位置の両方を更新する利点を示している。

Gaussian mixture models form a flexible and expressive parametric family of distributions that has found applications in a wide variety of applications. Unfortunately, fitting these models to data is a notoriously hard problem from a computational perspective. Currently, only moment-based methods enjoy theoretical guarantees while likelihood-based methods are dominated by heuristics such as Expectation-Maximization that are known to fail in simple examples. In this work, we propose a new algorithm to compute the nonparametric maximum likelihood estimator (NPMLE) in a Gaussian mixture model. Our method is based on gradient descent over the space of probability measures equipped with the Wasserstein-Fisher-Rao geometry for which we establish convergence guarantees. In practice, it can be approximated using an interacting particle system where the weight and location of particles are updated alternately. We conduct extensive numerical experiments to confirm the effectiveness of the proposed algorithm compared not only to classical benchmarks but also to similar gradient descent algorithms with respect to simpler geometries. In particular, these simulations illustrate the benefit of updating both weight and location of the interacting particles.
翻訳日:2023-01-05 15:31:22 公開日:2023-01-04
# 拡張決定論的表現のための文法構築法

Grammar construction methods for extended deterministic expressions ( http://arxiv.org/abs/2301.01621v1 )

ライセンス: Link先を確認
Xiaoying Mou and Haiming Chen(参考訳) カウントとインターリーブを伴う拡張正規表現は、実際に広く使われている。 しかし、このような表現に関する関連する理論的研究は、実際的な作業の必要性を満たすことはできない。 本稿では,拡張決定論的表現とそのサブクラスに対する構文定義を開発し,このような表現に構文定義がないという長年の課題を完全に解決し,拡張表現の使用を制限する重要な理由となっている。

Extended regular expressions with counting and interleaving are widely used in practice. However the related theoretical studies for this kind of expressions currently cannot meet the need of practical work. This paper develops syntax definitions for extended deterministic expressions and their subclasses, hope to completely solve the long-standing problem that there are no syntax definitions for this kind of expressions, which has become an important reason for restricting the use of extended expressions.
翻訳日:2023-01-05 15:31:04 公開日:2023-01-04
# UniHD at TSAR-2022 Shared Task: 語彙の単純化に必要なすべて計算可能か

UniHD at TSAR-2022 Shared Task: Is Compute All We Need for Lexical Simplification ( http://arxiv.org/abs/2301.01764v1 )

ライセンス: Link先を確認
Dennis Aumiller and Michael Gertz(参考訳) 辞書の単純化に関するこれまでの最先端のモデルは、複雑なパイプラインと複数のコンポーネントで構成されており、それぞれに深い技術知識と微調整されたインタラクションが必要である。 代替として、引き起こされたGPT-3応答に基づくフラストレーションに富んだ単純なパイプラインを記述し、少数のトレーニングインスタンスで競合するアプローチをはるかに上回った。 TSAR-2022共有タスクの英語トラックへの最も優れた提案は、異なる文脈レベルを持つ6種類のプロンプトテンプレートの '`ensemble''' からなる。 遅れの結果として、英語以外の言語を単純化する言語転送手法をさらに詳細に述べる。 スペイン語とポルトガル語のサブセットに適用すると、元のプロンプトにわずかな修正を加えるだけで最新の結果が得られる。 実装とセットアップの詳細は別として、この作業の残りは、今後の作業の促進と意味を議論する作業に費やしています。 実験用コードはオンライン \url{https://github.com/dennlinger/TSAR-2022-Shared-Task} で利用可能である。

Previous state-of-the-art models for lexical simplification consist of complex pipelines with several components, each of which requires deep technical knowledge and fine-tuned interaction to achieve its full potential. As an alternative, we describe a frustratingly simple pipeline based on prompted GPT-3 responses, beating competing approaches by a wide margin in settings with few training instances. Our best-performing submission to the English language track of the TSAR-2022 shared task consists of an ``ensemble'' of six different prompt templates with varying context levels. As a late-breaking result, we further detail a language transfer technique that allows simplification in languages other than English. Applied to the Spanish and Portuguese subset, we achieve state-of-the-art results with only minor modification to the original prompts. Aside from detailing the implementation and setup, we spend the remainder of this work discussing the particularities of prompting and implications for future work. Code for the experiments is available online \url{https://github.com/dennlinger/TSAR-2022-Shared-Task}
翻訳日:2023-01-05 15:30:57 公開日:2023-01-04
# informed down-sampled lexicase selection: 効率的な問題解決のための生産的トレーニングケースの同定

Informed Down-Sampled Lexicase Selection: Identifying productive training cases for efficient problem solving ( http://arxiv.org/abs/2301.01488v1 )

ライセンス: Link先を確認
Ryan Boldi, Martin Briesch, Dominik Sobania, Alexander Lalejini, Thomas Helmuth, Franz Rothlauf, Charles Ofria, Lee Spector(参考訳) 遺伝的プログラミング(GP)はしばしば大きなトレーニングセットを使用し、選択中にすべてのトレーニングケースですべての個人を評価する必要がある。 ランダムダウンサンプリングレキシケースの選択は、トレーニングケースのランダムなサブセットのみの個人を評価し、同じプログラム実行量でより多くの個人を探索できるようにする。 しかし、ダウンサンプルをランダムに作成することは、いくつかの世代にわたって、現在のダウンサンプルから重要なケースを除外し、同じ動作(匿名のケース)を測定するケースはその冗長性にもかかわらず、過剰に使用される可能性がある。 本稿では,Informed Down-Sampled Lexicase Selectionを紹介する。 この手法は人口統計を利用して、より明瞭で情報的な訓練ケースを含むダウンサンプルを構築する。 2つの異なるGPシステム(PushGPとGrammar-Guided GP)に対する実証的な調査により、インシデントダウンサンプリングは、一連のプログラム合成ベンチマーク問題においてランダムダウンサンプリングを著しく上回っていることがわかった。 生成されたダウンサンプルの分析を通じて、重要なトレーニングケースが、独立した進化的実行とシステムを通じて一貫してダウンサンプルに含まれることが分かりました。 この改善は、進化の過程でより専門的な個人を維持できるインフォームド・ダウンサンプリング・レキシケース・セレクション(Informed Down-Sampled Lexicase Selection)の能力と、評価コストの削減によってもたらされる、という仮説を立てる。

Genetic Programming (GP) often uses large training sets and requires all individuals to be evaluated on all training cases during selection. Random down-sampled lexicase selection evaluates individuals on only a random subset of the training cases allowing for more individuals to be explored with the same amount of program executions. However, creating a down-sample randomly might exclude important cases from the current down-sample for a number of generations, while cases that measure the same behavior (synonymous cases) may be overused despite their redundancy. In this work, we introduce Informed Down-Sampled Lexicase Selection. This method leverages population statistics to build down-samples that contain more distinct and therefore informative training cases. Through an empirical investigation across two different GP systems (PushGP and Grammar-Guided GP), we find that informed down-sampling significantly outperforms random down-sampling on a set of contemporary program synthesis benchmark problems. Through an analysis of the created down-samples, we find that important training cases are included in the down-sample consistently across independent evolutionary runs and systems. We hypothesize that this improvement can be attributed to the ability of Informed Down-Sampled Lexicase Selection to maintain more specialist individuals over the course of evolution, while also benefiting from reduced per-evaluation costs.
翻訳日:2023-01-05 15:25:03 公開日:2023-01-04
# ソースコード事前訓練言語モデルを拡張して非コンパイルバイナリを要約する

Extending Source Code Pre-Trained Language Models to Summarise Decompiled Binaries ( http://arxiv.org/abs/2301.01701v1 )

ライセンス: Link先を確認
Ali Al-Kaswan, Toufique Ahmed, Maliheh Izadi, Anand Ashok Sawant, Prem Devanbu, Arie van Deursen(参考訳) ソースコードが利用できないプログラムを理解し分析するには、リバースエンジニアリングバイナリが必要である。 逆コンパイラは読みにくいバイナリを、より読みやすいソースコードのような表現に変換することができる。 しかし、リバースエンジニアリングは時間がかかり、そのほとんどが意味情報で関数をラベル付けすることで取り上げられる。 非コンパイルコードの自動要約はリバースエンジニアがバイナリを理解し解析するのに役立つが、現在の作業は主にソースコードの要約に焦点を当てており、このタスクに適したデータセットは存在しない。 本研究では,ソースコードの事前学習型言語モデルを拡張し,デコンパイルされたバイナリ関数を要約する。 さらに,入力特性とデータ特性がモデルの性能に与える影響について検討する。 私たちのアプローチは、データとモデルという2つの主要コンポーネントで構成されています。 まず、CAPYBARAという、214Kの逆コンパイルされた関数文書ペアのデータセットを、様々なコンパイラ最適化で構築する。 我々はCAPYBARAをさらに拡張し、合成データセットを生成し、データを分離する。 次に、CodeT5ベースモデルをCAPYBARAで微調整してBinT5を作成します。 BinT5は最先端のBLEU-4スコアを60.83、58.82、44.21で達成し、ソース、逆コンパイル、および合成的に削除される。 これは、これらのモデルが逆コンパイルバイナリにうまく拡張できることを示している。 最後に、BinT5のパフォーマンスはデータセットのサイズとコンパイラの最適化レベルに大きく依存していないことがわかった。 我々は,より表現力の低いバイナリなどの入力形式を扱う場合の知識の伝達について,今後の研究を推奨する。

Reverse engineering binaries is required to understand and analyse programs for which the source code is unavailable. Decompilers can transform the largely unreadable binaries into a more readable source code-like representation. However, reverse engineering is time-consuming, much of which is taken up by labelling the functions with semantic information. While the automated summarisation of decompiled code can help Reverse Engineers understand and analyse binaries, current work mainly focuses on summarising source code, and no suitable dataset exists for this task. In this work, we extend large pre-trained language models of source code to summarise decompiled binary functions. Furthermore, we investigate the impact of input and data properties on the performance of such models. Our approach consists of two main components; the data and the model. We first build CAPYBARA, a dataset of 214K decompiled function-documentation pairs across various compiler optimisations. We extend CAPYBARA further by generating synthetic datasets and deduplicating the data. Next, we fine-tune the CodeT5 base model with CAPYBARA to create BinT5. BinT5 achieves the state-of-the-art BLEU-4 score of 60.83, 58.82, and 44.21 for summarising source, decompiled, and synthetically stripped decompiled code, respectively. This indicates that these models can be extended to decompiled binaries successfully. Finally, we found that the performance of BinT5 is not heavily dependent on the dataset size and compiler optimisation level. We recommend future research to further investigate transferring knowledge when working with less expressive input formats such as stripped binaries.
翻訳日:2023-01-05 15:23:35 公開日:2023-01-04
# マルチソース拡張によるエピソード発見推薦

Episodes Discovery Recommendation with Multi-Source Augmentations ( http://arxiv.org/abs/2301.01737v1 )

ライセンス: Link先を確認
Ziwei Fan, Alice Wang, and Zahra Nazari(参考訳) Recommender System (RS) は、歴史的相互作用に基づいてユーザの興味をモデル化することによって、大量のアイテムから潜在的候補アイテムを検索する。 しかし、歴史的相互作用データは非常に乏しく、ほとんどの項目は長尾項目であり、項目発見のための表現学習を制限する。 この問題は、新規またはコールドスタートアイテムの発見によってさらに強化される。 例えば、ユーザーがポッドキャストスペースでbitcoinの金融投資ショーに興味を示した後、レコメンデーションシステムは、例えば、より技術的なショーから新しくリリースされたブロックチェーンのエピソードを提案するかもしれない。 特にエピソードの相互作用データが限られている場合、エピソード相関は発見に役立つ。 そこで,本研究では,古典的2towerモデルを構築し,コントラスト学習フレームワーク(MSACL)を用いた新たなマルチソース拡張を導入し,多数の関連セマンティクスから肯定的なエピソードを取り入れ,エピソード埋め込み学習を強化する。 大規模オーディオストリーミングプラットフォームによるリアルタイムポッドキャストレコメンデーションデータセットの大規模な実験により,提案フレームワークがユーザポッドキャスト探索およびコールドスタートエピソードレコメンデーションに有効であることを実証した。

Recommender systems (RS) commonly retrieve potential candidate items for users from a massive number of items by modeling user interests based on historical interactions. However, historical interaction data is highly sparse, and most items are long-tail items, which limits the representation learning for item discovery. This problem is further augmented by the discovery of novel or cold-start items. For example, after a user displays interest in bitcoin financial investment shows in the podcast space, a recommender system may want to suggest, e.g., a newly released blockchain episode from a more technical show. Episode correlations help the discovery, especially when interaction data of episodes is limited. Accordingly, we build upon the classical Two-Tower model and introduce the novel Multi-Source Augmentations using a Contrastive Learning framework (MSACL) to enhance episode embedding learning by incorporating positive episodes from numerous correlated semantics. Extensive experiments on a real-world podcast recommendation dataset from a large audio streaming platform demonstrate the effectiveness of the proposed framework for user podcast exploration and cold-start episode recommendation.
翻訳日:2023-01-05 15:23:10 公開日:2023-01-04
# スムース関数のオンライン学習

Online Learning of Smooth Functions ( http://arxiv.org/abs/2301.01434v1 )

ライセンス: Link先を確認
Jesse Geneson and Ethan Zhou(参考訳) 本稿では,隠れ関数が一定の滑らか性を持つことが知られている実数値関数のオンライン学習について検討する。 具体的には、$q \ge 1$ に対して、$\mathcal f_q$ を絶対連続関数 $f: [0,1] \to \mathbb r$ のクラスとし、$\|f'\|_q \le 1$ とする。 q \ge 1$ と $d \in \mathbb z^+$ に対して、$\mathcal f_{q,d}$ を関数のクラスとする: [0,1]^d \to \mathbb r$ 任意の関数$g: [0,1] \to \mathbb r$ は、$f$ のパラメータの1つを除いて、$\mathcal f_q$ となる。 任意の実数値関数のクラス$\mathcal f$ と $p>0$ に対して、$\text{opt}_p(\mathcal f)$ を$p^{\text{th}}$ の合計の最高上限とし、最悪の場合学習者が保証できる絶対予測誤差のパワーを与える。 単変数のセットアップでは、$\text{opt}_p(\mathcal F_q)$ の新しい境界が定数係数までシャープになる。 すべての$\varepsilon \in (0, 1)$ that $\text{opt}_{1+\varepsilon}(\mathcal{F}_{\infty}) = \Theta(\varepsilon^{-\frac{1}{2}})$ and $\text{opt}_{1+\varepsilon}(\mathcal{F}_q) = \Theta(\varepsilon^{-\frac{1}{2}})$ for all $q \ge 2$を示す。 また、$\varepsilon \in (0,1)$ that $\text{opt}_2(\mathcal F_{1+\varepsilon})=\Theta(\varepsilon^{-1})$ を示す。 さらに、$\text{opt}_p(\mathcal F_q)=1$ for $q \in (1,2)$と$p \ge 2+\frac{1}{q-1}$を証明することによって、新しい正確な結果が得られる。 多変数設定では、$\text{opt}_p(\mathcal F_{q,d})$ to $\text{opt}_p(\mathcal F_q)$ に関する不等式を確立し、$\text{opt}_p(\mathcal F_{\infty,d})$ が$p<d$ で有限であれば $p>d$ が無限となることを示す。 また、試行回数が有界であれば、$\mathcal F_{\infty,d}$ for $p < d$ を学習する際の鋭い境界も得られる。

In this paper, we study the online learning of real-valued functions where the hidden function is known to have certain smoothness properties. Specifically, for $q \ge 1$, let $\mathcal F_q$ be the class of absolutely continuous functions $f: [0,1] \to \mathbb R$ such that $\|f'\|_q \le 1$. For $q \ge 1$ and $d \in \mathbb Z^+$, let $\mathcal F_{q,d}$ be the class of functions $f: [0,1]^d \to \mathbb R$ such that any function $g: [0,1] \to \mathbb R$ formed by fixing all but one parameter of $f$ is in $\mathcal F_q$. For any class of real-valued functions $\mathcal F$ and $p>0$, let $\text{opt}_p(\mathcal F)$ be the best upper bound on the sum of $p^{\text{th}}$ powers of absolute prediction errors that a learner can guarantee in the worst case. In the single-variable setup, we find new bounds for $\text{opt}_p(\mathcal F_q)$ that are sharp up to a constant factor. We show for all $\varepsilon \in (0, 1)$ that $\text{opt}_{1+\varepsilon}(\mathcal{F}_{\infty}) = \Theta(\varepsilon^{-\frac{1}{2}})$ and $\text{opt}_{1+\varepsilon}(\mathcal{F}_q) = \Theta(\varepsilon^{-\frac{1}{2}})$ for all $q \ge 2$. We also show for $\varepsilon \in (0,1)$ that $\text{opt}_2(\mathcal F_{1+\varepsilon})=\Theta(\varepsilon^{-1})$. In addition, we obtain new exact results by proving that $\text{opt}_p(\mathcal F_q)=1$ for $q \in (1,2)$ and $p \ge 2+\frac{1}{q-1}$. In the multi-variable setup, we establish inequalities relating $\text{opt}_p(\mathcal F_{q,d})$ to $\text{opt}_p(\mathcal F_q)$ and show that $\text{opt}_p(\mathcal F_{\infty,d})$ is infinite when $p<d$ and finite when $p>d$. We also obtain sharp bounds on learning $\mathcal F_{\infty,d}$ for $p < d$ when the number of trials is bounded.
翻訳日:2023-01-05 15:22:32 公開日:2023-01-04
# CI-GNN:脳ネットワークに基づく精神診断のためのグランガー因果グラフニューラルネットワーク

CI-GNN: A Granger Causality-Inspired Graph Neural Network for Interpretable Brain Network-Based Psychiatric Diagnosis ( http://arxiv.org/abs/2301.01642v1 )

ライセンス: Link先を確認
Kaizhong Zheng, Shujian Yu, Badong Chen(参考訳) 近年、脳ネットワークに基づく精神医学診断にグラフニューラルネットワーク(GNN)のパワーを活用する傾向があり、これはまた、使用済みのGNNの決定行動を完全に理解するために精神科医が緊急に必要であることを意味している。 しかしながら、既存のgnn説明者は、十分に訓練されたgnnを説明するために別の解釈モデルを作成する必要があるポストホックであるか、抽出された説明と決定との因果関係を考慮していないため、説明自体がスプリアス相関を含み、弱い忠実さに苦しむ。 本研究では,その決定に因果関係のある最も影響力のある部分グラフ(例えば,大うつ病患者や健常なコントロールなど)を,補助的解釈ネットワークの訓練なしで識別可能な,組み込みの解釈モデルであるgranger causality-inspired graph neural network(ci-gnn)を提案する。 CI-GNNは、それぞれ、条件付き相互情報(CMI)制約によって正規化されたグラフ変動オートエンコーダフレームワークの下で、元のグラフの因果的側面と非因果的側面をエンコードする非絡み合った部分グラフレベルの表現 {\alpha} と \b{eta} を学習する。 因果関係の把握におけるCMI規制の有効性を理論的に正当化する。 また,3つのベースラインGNNと4つの最先端GNNの合成データと2つの大規模脳疾患データセットに対するCI-GNNの性能を実証的に評価した。 我々は,CI-GNNが幅広い指標において最高の性能を達成し,より信頼性が高く簡潔な説明を提供することを観察した。

There is a recent trend to leverage the power of graph neural networks (GNNs) for brain-network based psychiatric diagnosis, which,in turn, also motivates an urgent need for psychiatrists to fully understand the decision behavior of the used GNNs. However, most of the existing GNN explainers are either post-hoc in which another interpretive model needs to be created to explain a well-trained GNN, or do not consider the causal relationship between the extracted explanation and the decision, such that the explanation itself contains spurious correlations and suffers from weak faithfulness. In this work, we propose a granger causality-inspired graph neural network (CI-GNN), a built-in interpretable model that is able to identify the most influential subgraph (i.e., functional connectivity within brain regions) that is causally related to the decision (e.g., major depressive disorder patients or healthy controls), without the training of an auxillary interpretive network. CI-GNN learns disentangled subgraph-level representations {\alpha} and \b{eta} that encode, respectively, the causal and noncausal aspects of original graph under a graph variational autoencoder framework, regularized by a conditional mutual information (CMI) constraint. We theoretically justify the validity of the CMI regulation in capturing the causal relationship. We also empirically evaluate the performance of CI-GNN against three baseline GNNs and four state-of-the-art GNN explainers on synthetic data and two large-scale brain disease datasets. We observe that CI-GNN achieves the best performance in a wide range of metrics and provides more reliable and concise explanations which have clinical evidence.
翻訳日:2023-01-05 15:21:18 公開日:2023-01-04
# 軌道最適化を伴うメタラーニングにおけるタスク重み付け

Task Weighting in Meta-learning with Trajectory Optimisation ( http://arxiv.org/abs/2301.01400v1 )

ライセンス: Link先を確認
Cuong Nguyen, Thanh-Toan Do, Gustavo Carneiro(参考訳) トレーニングタスクのサブセットに対して偏りのないメタ学習アルゴリズムを開発するには、タスクの重み付けのために手設計の基準が必要になることが少なくない。 本稿では、メタラーニングのための新しい原理的かつ完全自動化されたタスク重み付けアルゴリズムを提案する。 アクションとして同じミニバッチ内のタスクの重みと、システム状態としての関心のメタパラメータを考慮することで、タスク重み付けメタラーニング問題を軌道最適化にキャストし、反復線形二次レギュレータを用いてタスクの最適動作や重みを決定する。 理論的には、提案アルゴリズムは$\epsilon_{0}$-stationary pointに収束し、提案手法が2つの数ショット学習ベンチマークで一般的な手動重み付け法より優れていることを示す。

Developing meta-learning algorithms that are un-biased toward a subset of training tasks often requires hand-designed criteria to weight tasks, potentially resulting in sub-optimal solutions. In this paper, we introduce a new principled and fully-automated task-weighting algorithm for meta-learning methods. By considering the weights of tasks within the same mini-batch as an action, and the meta-parameter of interest as the system state, we cast the task-weighting meta-learning problem to a trajectory optimisation and employ the iterative linear quadratic regulator to determine the optimal action or weights of tasks. We theoretically show that the proposed algorithm converges to an $\epsilon_{0}$-stationary point, and empirically demonstrate that the proposed approach out-performs common hand-engineering weighting methods in two few-shot learning benchmarks.
翻訳日:2023-01-05 15:14:12 公開日:2023-01-04
# 事前情報を用いたマルチタスク学習

Multi-Task Learning with Prior Information ( http://arxiv.org/abs/2301.01572v1 )

ライセンス: Link先を確認
Mengyuan Zhang and Kai Liu(参考訳) マルチタスク学習は、それらのタスクに含まれる情報を活用して、複数の関連するタスクの一般化性能を向上させることを目的としている。 本稿では,特徴間の関係に関する事前知識を活用するマルチタスク学習フレームワークを提案する。 また、各特徴に対して変化する係数に対してペナルティを課し、それらの共通特徴に類似した係数を持つようにした。 さらに、グループスパーシティを通じて、共通の機能セットをキャプチャします。 この目的は非スムース凸最適化問題として定式化されており、固定ステップ化による勾配降下法、バックトラッキングを伴う反復収縮緩和アルゴリズム(ista)、および変動 -- 高速反復収縮緩和アルゴリズム(fista)など様々な方法で解くことができる。 上記の手法の分線形収束率に照らして,理論的に保証された漸近線形収束アルゴリズムを提案する。 実世界のデータセットを用いた回帰および分類タスクの実証実験により,提案アルゴリズムは複数の関連するタスクの一般化性能を向上させることができることを示した。

Multi-task learning aims to boost the generalization performance of multiple related tasks simultaneously by leveraging information contained in those tasks. In this paper, we propose a multi-task learning framework, where we utilize prior knowledge about the relations between features. We also impose a penalty on the coefficients changing for each specific feature to ensure related tasks have similar coefficients on common features shared among them. In addition, we capture a common set of features via group sparsity. The objective is formulated as a non-smooth convex optimization problem, which can be solved with various methods, including gradient descent method with fixed stepsize, iterative shrinkage-thresholding algorithm (ISTA) with back-tracking, and its variation -- fast iterative shrinkage-thresholding algorithm (FISTA). In light of the sub-linear convergence rate of the methods aforementioned, we propose an asymptotically linear convergent algorithm with theoretical guarantee. Empirical experiments on both regression and classification tasks with real-world datasets demonstrate that our proposed algorithms are capable of improving the generalization performance of multiple related tasks.
翻訳日:2023-01-05 15:13:56 公開日:2023-01-04
# 故障予後予測における深層産業転入学習に関する調査研究

A Survey on Deep Industrial Transfer Learning in Fault Prognostics ( http://arxiv.org/abs/2301.01705v1 )

ライセンス: Link先を確認
Benjamin Maschler(参考訳) その確率的性質のため、断層予測はビッグデータを利用したディープラーニングのユースケースの第一の例である。 しかし、そのようなデータセットの低可用性と複雑な学習アルゴリズムの適合、パラメータ化、評価といった高い努力が組み合わさって、しばしば産業用途に典型的な異種および動的設定に適合させることは、このアプローチの実践的適用を妨げる。 新しい、あるいは動的に変化する障害予測シナリオへの自動適応は、転送学習や連続学習法を用いて達成できる。 本稿では,この分野における今後の研究に向けたベストプラクティスの確立を目的とした,最初の調査を行う。 その結果をロバストに比較し、科学的進歩を促進するための共通ベンチマークが不足していることが示されている。 そのため、これらの論文で活用されるデータセットを調査し、このようなベンチマークシナリオに適した候補を特定する。

Due to its probabilistic nature, fault prognostics is a prime example of a use case for deep learning utilizing big data. However, the low availability of such data sets combined with the high effort of fitting, parameterizing and evaluating complex learning algorithms to the heterogenous and dynamic settings typical for industrial applications oftentimes prevents the practical application of this approach. Automatic adaptation to new or dynamically changing fault prognostics scenarios can be achieved using transfer learning or continual learning methods. In this paper, a first survey of such approaches is carried out, aiming at establishing best practices for future research in this field. It is shown that the field is lacking common benchmarks to robustly compare results and facilitate scientific progress. Therefore, the data sets utilized in these publications are surveyed as well in order to identify suitable candidates for such benchmark scenarios.
翻訳日:2023-01-05 15:13:38 公開日:2023-01-04
# カーネル部分空間と特徴抽出

Kernel Subspace and Feature Extraction ( http://arxiv.org/abs/2301.01410v1 )

ライセンス: Link先を確認
Xiangxiang Xu, Lizhong Zheng(参考訳) 特徴部分空間の観点から機械学習におけるカーネル手法について検討する。 特徴部分空間とカーネルの1対1対応性を確立し,カーネルの情報理論尺度を提案する。 特に、Hirschfeld--Gebelein--R\'{e}nyi の最大相関関数からカーネルを構築し、最大相関カーネルを作成し、その情報理論の最適性を示す。 サポートベクターマシン(SVM)を例として、カーネルメソッドと特徴抽出アプローチの接続を例に挙げる。 最大相関カーネル上のカーネルSVMが最小予測誤差を達成することを示す。 最後に、フィッシャーカーネルを特別な最大相関カーネルとして解釈し、その最適性を確立する。

We study kernel methods in machine learning from the perspective of feature subspace. We establish a one-to-one correspondence between feature subspaces and kernels and propose an information-theoretic measure for kernels. In particular, we construct a kernel from Hirschfeld--Gebelein--R\'{e}nyi maximal correlation functions, coined the maximal correlation kernel, and demonstrate its information-theoretic optimality. We use the support vector machine (SVM) as an example to illustrate a connection between kernel methods and feature extraction approaches. We show that the kernel SVM on maximal correlation kernel achieves minimum prediction error. Finally, we interpret the Fisher kernel as a special maximal correlation kernel and establish its optimality.
翻訳日:2023-01-05 15:13:16 公開日:2023-01-04
# 頑健な音声認識のための視聴覚効率コンフォーメータ

Audio-Visual Efficient Conformer for Robust Speech Recognition ( http://arxiv.org/abs/2301.01456v1 )

ライセンス: Link先を確認
Maxime Burchi and Radu Timofte(参考訳) 近年,ニューラルネットワークに基づくエンドツーエンド自動音声認識(ASR)システムが大幅に改善されている。 大規模なハンドラベルデータセットと十分な計算リソースにより、強力なディープニューラルネットワークのトレーニングが可能になり、学術ベンチマークではワードエラー率(WER)が非常に低い。 しかし、クリーンな音声サンプルでの印象的なパフォーマンスにもかかわらず、ノイズの多い音声ではパフォーマンスの低下がしばしば見られる。 本研究では,近年提案されているCTCアーキテクチャにおいて,音声と視覚の両方のモーダルを処理することにより,雑音の堅牢性を向上させることを提案する。 本研究では,ResNet-18視覚フロントエンド上での効率的なコンフォーマバックエンドとブロック間の中間CTC損失の追加により,従来の唇読取法を改善する。 CTCモデルにおける条件独立性仮定を緩和するために,Inter CTC残差モジュールを用いた早期予測に中間ブロック特性を仮定する。 また, パッチアテンションと呼ばれるより効率的でシンプルなアテンション機構によって, 効率的なコンフォーメータグループアテンションを置き換えた。 利用可能なLip Reading Sentences 2(LRS2)およびLip Reading Sentences 3(LRS3)データセットを実験した。 実験では,音声と視覚のモダリティを用いることで,環境騒音の存在下での音声の認識が向上し,トレーニングを著しく加速し,4倍のトレーニングステップで低いワーに到達できることが示されている。 我々のAudio-Visual Efficient Conformer (AVEC) モデルは最先端の性能を実現し, LRS2 および LRS3 テストセットの WER は 2.3% と 1.8% に達した。 コードと事前訓練されたモデルはhttps://github.com/burchim/AVEC.comで入手できる。

End-to-end Automatic Speech Recognition (ASR) systems based on neural networks have seen large improvements in recent years. The availability of large scale hand-labeled datasets and sufficient computing resources made it possible to train powerful deep neural networks, reaching very low Word Error Rate (WER) on academic benchmarks. However, despite impressive performance on clean audio samples, a drop of performance is often observed on noisy speech. In this work, we propose to improve the noise robustness of the recently proposed Efficient Conformer Connectionist Temporal Classification (CTC)-based architecture by processing both audio and visual modalities. We improve previous lip reading methods using an Efficient Conformer back-end on top of a ResNet-18 visual front-end and by adding intermediate CTC losses between blocks. We condition intermediate block features on early predictions using Inter CTC residual modules to relax the conditional independence assumption of CTC-based models. We also replace the Efficient Conformer grouped attention by a more efficient and simpler attention mechanism that we call patch attention. We experiment with publicly available Lip Reading Sentences 2 (LRS2) and Lip Reading Sentences 3 (LRS3) datasets. Our experiments show that using audio and visual modalities allows to better recognize speech in the presence of environmental noise and significantly accelerate training, reaching lower WER with 4 times less training steps. Our Audio-Visual Efficient Conformer (AVEC) model achieves state-of-the-art performance, reaching WER of 2.3% and 1.8% on LRS2 and LRS3 test sets. Code and pretrained models are available at https://github.com/burchim/AVEC.
翻訳日:2023-01-05 15:13:03 公開日:2023-01-04
# 高速フーリエ変換を用いた誤り関連表現の学習

Learning Decorrelated Representations Efficiently Using Fast Fourier Transform ( http://arxiv.org/abs/2301.01569v1 )

ライセンス: Link先を確認
Yutaro Shigeto, Masashi Shimbo, Yuya Yoshikawa, Akikazu Takeuchi(参考訳) Barlow Twins と VICReg は、正規化子を使って特徴をデコレーションする自己教師型表現学習モデルである。 これらは従来の表現学習モデルと同様に機能するが、それらのトレーニングは射影表現の次元が高ければ計算的に要求することができる; これらの正規化器は相互相関行列や共分散行列の個々の要素で定義されるので、$d$の$n$の射影表現の損失は$O(n d^2)$時間を要する。 本稿では、高速フーリエ変換により、$O(n d\log d)$時間で計算できる非相関正規化器の緩和版を提案する。 また,緩和に伴う局所的な極小化を緩和するための安価な手法を提案する。 提案する正規化器を用いたモデル学習表現は、ダウンストリームタスクで既存のモデルと同等の精度を示すが、トレーニングではメモリが少なく、$d$が大きいとより高速になる。

Barlow Twins and VICReg are self-supervised representation learning models that use regularizers to decorrelate features. Although they work as well as conventional representation learning models, their training can be computationally demanding if the dimension of projected representations is high; as these regularizers are defined in terms of individual elements of a cross-correlation or covariance matrix, computing the loss for $d$-dimensional projected representations of $n$ samples takes $O(n d^2)$ time. In this paper, we propose a relaxed version of decorrelating regularizers that can be computed in $O(n d\log d)$ time by the fast Fourier transform. We also propose an inexpensive trick to mitigate the undesirable local minima that develop with the relaxation. Models learning representations using the proposed regularizers show comparable accuracy to existing models in downstream tasks, whereas the training requires less memory and is faster when $d$ is large.
翻訳日:2023-01-05 15:12:23 公開日:2023-01-04
# 多クラスにおける土地被覆マッピングの反事実的説明

Counterfactual Explanations for Land Cover Mapping in a Multi-class Setting ( http://arxiv.org/abs/2301.01520v1 )

ライセンス: Link先を確認
Cassio F. Dantas, Diego Marcos, Dino Ienco(参考訳) counterfactual descriptionsは、ディープラーニングモデルの解釈性を高めるための新しいツールだ。 サンプルが与えられた場合、これらのメソッドは決定境界を越えて類似したサンプルを見つけて表示しようとする。 本論文では,陸域被覆分類タスクのための多クラス設定において,衛星画像時系列に対する生成的逆実逆法を提案する。 提案手法の特徴の1つは、ある対実的説明に対する対象クラスに対する事前の仮定の欠如である。 この固有の柔軟性は、土地被覆クラス間の関係に関する興味深い情報の発見を可能にする。 もう1つの特徴は、反事実を元のサンプルと違い、小さくてコンパクトな時間的セグメントのみにすることを奨励することである。 これらの時間の連続的な摂動は、多くのスペーサーと解釈可能な解を可能にする。 さらに, 提案した対角的学習戦略を通じて, 生成した対実的説明の妥当性・現実性を検証した。

Counterfactual explanations are an emerging tool to enhance interpretability of deep learning models. Given a sample, these methods seek to find and display to the user similar samples across the decision boundary. In this paper, we propose a generative adversarial counterfactual approach for satellite image time series in a multi-class setting for the land cover classification task. One of the distinctive features of the proposed approach is the lack of prior assumption on the targeted class for a given counterfactual explanation. This inherent flexibility allows for the discovery of interesting information on the relationship between land cover classes. The other feature consists of encouraging the counterfactual to differ from the original sample only in a small and compact temporal segment. These time-contiguous perturbations allow for a much sparser and, thus, interpretable solution. Furthermore, plausibility/realism of the generated counterfactual explanations is enforced via the proposed adversarial learning strategy.
翻訳日:2023-01-05 15:05:54 公開日:2023-01-04
# 集団系列アノテーションからあいまいさを学ぶ

Learning Ambiguity from Crowd Sequential Annotations ( http://arxiv.org/abs/2301.01579v1 )

ライセンス: Link先を確認
Xiaolei Lu(参考訳) 多くのクラウドソーシング学習手法は、アノテータ間の不一致をノイズラベリングとして扱う一方で、専門家間の意見の相違は、自然言語に固有の曖昧さと不確実性を示す良い指標である。 本稿では,信頼性のあるアノテーション間の差異を探索し,紛らわしいラベル情報を効果的に保存するために,クラウド・シーケンシャルアノテーション(la-sca)からの学習曖昧性(learning ambiguity)という枠組みを提案する。 まず, 階層ベイズモデルを用いて, 群集から地中を推定し, 同様の信頼性で注釈をグループ化する。 関係するアノテータのサイズ、各シーケンスにおけるアノテータの信頼性と要素の曖昧さの関係をモデル化することにより、あいまいな要素に対する信頼できるアノテータ間の差異を計算し、コストに敏感なシーケンスラベリングに組み込まれたラベル混乱情報を得る。 posタグとnerタスクの実験結果から,提案手法は,群集から基底を推測し未知のシーケンスを予測し,階層的クラスタリングの結果を解釈することで,類似した信頼性を持つ注釈者のラベル付けパターンを発見できることがわかった。

Most crowdsourcing learning methods treat disagreement between annotators as noisy labelings while inter-disagreement among experts is often a good indicator for the ambiguity and uncertainty that is inherent in natural language. In this paper, we propose a framework called Learning Ambiguity from Crowd Sequential Annotations (LA-SCA) to explore the inter-disagreement between reliable annotators and effectively preserve confusing label information. First, a hierarchical Bayesian model is developed to infer ground-truth from crowds and group the annotators with similar reliability together. By modeling the relationship between the size of group the annotator involved in, the annotator's reliability and element's unambiguity in each sequence, inter-disagreement between reliable annotators on ambiguous elements is computed to obtain label confusing information that is incorporated to cost-sensitive sequence labeling. Experimental results on POS tagging and NER tasks show that our proposed framework achieves competitive performance in inferring ground-truth from crowds and predicting unknown sequences, and interpreting hierarchical clustering results helps discover labeling patterns of annotators with similar reliability.
翻訳日:2023-01-05 15:05:43 公開日:2023-01-04
# データストリームのためのフェデレーション学習

Federated Learning for Data Streams ( http://arxiv.org/abs/2301.01542v1 )

ライセンス: Link先を確認
Othmane Marfoq, Giovanni Neglia, Laetitia Kameni, Richard Vidal(参考訳) フェデレートラーニング(FL)は、IoTデバイスやスマートフォンが生成するデータ量の増加に対して、そのようなデータをローカライズしたまま機械学習モデルをトレーニングするための効果的なソリューションである。 フェデレーション学習に関する以前のほとんどの作業は、クライアントがトレーニングを開始する前に収集された静的データセットを操作すると仮定している。 このアプローチは非効率であるかもしれない 1)クライアントがトレーニング中に収集する新しいサンプルを無視し、 2) クライアントが十分なデータを収集するためには、潜在的に長い準備段階が必要かもしれない。 さらに、デバイス間で小さな集約ストレージを持つシナリオでは、静的データセットの学習は不可能である。 そのため、データストリームから学習可能なフェデレーションアルゴリズムを設計する必要がある。 本研究では,データストリームに対するemph{federated learning}の問題を定式化し,研究する。 本稿では,経験的リスク最小化によるデータストリームから学習する一般FLアルゴリズムを提案する。 我々の理論解析は,そのようなアルゴリズムを構成するための洞察を与え,その性能を幅広い機械学習タスクで評価する。

Federated learning (FL) is an effective solution to train machine learning models on the increasing amount of data generated by IoT devices and smartphones while keeping such data localized. Most previous work on federated learning assumes that clients operate on static datasets collected before training starts. This approach may be inefficient because 1) it ignores new samples clients collect during training, and 2) it may require a potentially long preparatory phase for clients to collect enough data. Moreover, learning on static datasets may be simply impossible in scenarios with small aggregate storage across devices. It is, therefore, necessary to design federated algorithms able to learn from data streams. In this work, we formulate and study the problem of \emph{federated learning for data streams}. We propose a general FL algorithm to learn from data streams through an opportune weighted empirical risk minimization. Our theoretical analysis provides insights to configure such an algorithm, and we evaluate its performance on a wide range of machine learning tasks.
翻訳日:2023-01-05 15:05:19 公開日:2023-01-04
# カプセル型ニューラルネットワークがスケールしない理由:動的パースツリー仮定への挑戦

Why Capsule Neural Networks Do Not Scale: Challenging the Dynamic Parse-Tree Assumption ( http://arxiv.org/abs/2301.01583v1 )

ライセンス: Link先を確認
Matthias Mitterreiter, Marcel Koch, Joachim Giesen, S\"oren Laue(参考訳) カプセルニューラルネットワークは、単純なスカラー値ニューロンをベクトル値カプセルに置き換える。 それらは人間の脳のパターン認識システムによって動機付けられ、複雑な物体は単純な物体の部分の階層に分解される。 このような階層はパースツリーと呼ばれる。 概念的には、カプセルニューラルネットワークはそのようなパースツリーを実現するために定義されている。 Sabour、Frosst、Hintonによるカプセルニューラルネットワーク(CapsNet)は、カプセルニューラルネットワークの概念を最初に実装したものだ。 CapsNetsは、パラメータが少なく、アフィン変換に対する堅牢性が高い単純な画像認識タスクで最先端のパフォーマンスを達成した。 これは広範な研究のきっかけとなった。 しかし、大きな努力にもかかわらず、CapsNetアーキテクチャをより合理的なサイズのデータセットに拡張する作業は行われなかった。 ここでは、この失敗の理由を説明し、CapsNetsをおもちゃの例を超えてスケールすることは不可能である、と論じる。 特に、カプセル神経ネットワークの背後にある主要な概念であるパースツリーの概念がCapsNetsには存在しないことを示す。 また,CapsNetsがトレーニング中に多くのカプセルを飢餓させるという,消失する勾配問題に悩まされていることも理論的および実験的に示す。

Capsule neural networks replace simple, scalar-valued neurons with vector-valued capsules. They are motivated by the pattern recognition system in the human brain, where complex objects are decomposed into a hierarchy of simpler object parts. Such a hierarchy is referred to as a parse-tree. Conceptually, capsule neural networks have been defined to realize such parse-trees. The capsule neural network (CapsNet), by Sabour, Frosst, and Hinton, is the first actual implementation of the conceptual idea of capsule neural networks. CapsNets achieved state-of-the-art performance on simple image recognition tasks with fewer parameters and greater robustness to affine transformations than comparable approaches. This sparked extensive follow-up research. However, despite major efforts, no work was able to scale the CapsNet architecture to more reasonable-sized datasets. Here, we provide a reason for this failure and argue that it is most likely not possible to scale CapsNets beyond toy examples. In particular, we show that the concept of a parse-tree, the main idea behind capsule neuronal networks, is not present in CapsNets. We also show theoretically and experimentally that CapsNets suffer from a vanishing gradient problem that results in the starvation of many capsules during training.
翻訳日:2023-01-05 15:05:05 公開日:2023-01-04
# 予測フォワードアルゴリズム

The Predictive Forward-Forward Algorithm ( http://arxiv.org/abs/2301.01452v1 )

ライセンス: Link先を確認
Alexander Ororbia, Ankur Mali(参考訳) 本研究では,予測フォワード(PFF)アルゴリズムと呼ぶ,フォワードフォワード(FF)アルゴリズムの一般化を提案する。 具体的には、有向生成回路と表現回路を同時に同時に学習し、予測符号化の要素、皮質機能の新鮮で実行可能な神経生物学的プロセス理論と前方適応スキームを組み合わせた動的反復神経システムを設計する。 さらに、PFFは学習信号を効率よく伝達し、フォワードパスのみでシナプスを更新し、バックプロップベースのスキームによって課される重要な構造的および計算的制約を除去する。 計算上の優位性に加えて、PFFプロセスは、フィードバック接続の欠如にもかかわらず局所的な(およびグローバルな)信号を利用する生物学的ニューロンの背後にある学習メカニズムを理解するのにさらに有用である。 我々は画像データに関するいくつかの実験を行い、PFFプロシージャがバックプロップと同様に機能することを示し、データパターンの分類、再構成、合成のための有望な脳誘発アルゴリズムを提供する。 その結果,脳にインスパイアされた計算の文脈において,バックプロップ代替クレジット代入アルゴリズムによって得られる約束のさらなる証拠が提示された。

In this work, we propose a generalization of the forward-forward (FF) algorithm that we call the predictive forward-forward (PFF) algorithm. Specifically, we design a dynamic, recurrent neural system that learns a directed generative circuit jointly and simultaneously with a representation circuit, combining elements of predictive coding, an emerging and viable neurobiological process theory of cortical function, with the forward-forward adaptation scheme. Furthermore, PFF efficiently learns to propagate learning signals and updates synapses with forward passes only, eliminating some of the key structural and computational constraints imposed by a backprop-based scheme. Besides computational advantages, the PFF process could be further useful for understanding the learning mechanisms behind biological neurons that make use of local (and global) signals despite missing feedback connections. We run several experiments on image data and demonstrate that the PFF procedure works as well as backprop, offering a promising brain-inspired algorithm for classifying, reconstructing, and synthesizing data patterns. As a result, our approach presents further evidence of the promise afforded by backprop-alternative credit assignment algorithms within the context of brain-inspired computing.
翻訳日:2023-01-05 15:04:46 公開日:2023-01-04
# 文変換器による多視点説明可能な帰納的関係予測

Multi-Aspect Explainable Inductive Relation Prediction by Sentence Transformer ( http://arxiv.org/abs/2301.01664v1 )

ライセンス: Link先を確認
Zhixiang Su, Di Wang, Chunyan Miao, Lizhen Cui(参考訳) 知識グラフ(KG)の最近の研究は、事前訓練された言語モデルによって強化されたパスベースの手法が、帰納的および説明可能な関係予測の提供においてうまく機能することを示している。 本稿では,モデル学習前に信頼できない経路をフィルタしてモデル性能を高めるための関係パスカバレッジと関係パス信頼度の概念を紹介する。 さらに,KGにおける帰納関係を予測するために,知識推論文変換器(KRST)を提案する。 KRSTは、抽出した信頼パスをKGにエンコードするように設計されており、経路を適切にクラスタ化し、マルチアスペクトの説明を提供する。 3つの実世界のデータセットについて広範な実験を行う。 実験の結果, krst は sota モデルと比較して, トランスダクティブおよびインダクティブテスト (6例中4例) および12例中11例において, 最高の性能が得られることがわかった。

Recent studies on knowledge graphs (KGs) show that path-based methods empowered by pre-trained language models perform well in the provision of inductive and explainable relation predictions. In this paper, we introduce the concepts of relation path coverage and relation path confidence to filter out unreliable paths prior to model training to elevate the model performance. Moreover, we propose Knowledge Reasoning Sentence Transformer (KRST) to predict inductive relations in KGs. KRST is designed to encode the extracted reliable paths in KGs, allowing us to properly cluster paths and provide multi-aspect explanations. We conduct extensive experiments on three real-world datasets. The experimental results show that compared to SOTA models, KRST achieves the best performance in most transductive and inductive test cases (4 of 6), and in 11 of 12 few-shot test cases.
翻訳日:2023-01-05 15:04:05 公開日:2023-01-04
# SPTS v2: シングルポイントシーンテキストスポッティング

SPTS v2: Single-Point Scene Text Spotting ( http://arxiv.org/abs/2301.01635v1 )

ライセンス: Link先を確認
Yuliang Liu, Jiaxin Zhang, Dezhi Peng, Mingxin Huang, Xinyu Wang, Jingqun Tang, Can Huang, Dahua Lin, Chunhua Shen, Xiang Bai, Lianwen Jin(参考訳) エンド・ツー・エンドのシーンテキストスポッティングは、本質的なテキスト検出と認識の相乗効果により大きな進歩を遂げている。 従来の手法では、水平長方形、回転長方形、四角形、多角形などの手動アノテーションを前提としており、単点よりはるかに高価である。 提案するフレームワークであるSPTS v2により,非常に低コストな単一点アノテーションにより,シーンテキストスポッティングモデルの訓練を行うことができることを示す。 spts v2は、同じ予測シーケンス内の全てのテキストインスタンスの中央点を逐次予測し、並行してテキスト認識を行う並列認識デコーダ(prd)を用いて、インスタンス割り当てデコーダ(iad)による自動回帰トランスの利点を予約する。 これら2つのデコーダは同じパラメータを共有し、単純な情報伝達プロセスと対話的に接続され、勾配と情報を渡す。 既存のベンチマークデータセットに関する総合的な実験は、SPTS v2が従来の最先端のシングルポイントテキストスポッターよりも少ないパラメータで、14倍高速な推論速度を達成できることを示した。 最も重要なことは、SPTS v2の範囲内では、より広範な実験により、一点が、非点、長方形境界ボックス、多角形境界ボックスと比較して、シーンテキストスポッティングの最適設定として機能する重要な現象が明らかにされていることである。 このような試みは、既存のパラダイムの領域を超えたシーンテキストスポッティングアプリケーションにとって重要な機会を提供する。 コードはhttps://github.com/shannanyinxiang/sptsで入手できる。

End-to-end scene text spotting has made significant progress due to its intrinsic synergy between text detection and recognition. Previous methods commonly regard manual annotations such as horizontal rectangles, rotated rectangles, quadrangles,and polygons as a prerequisite, which are much more expensive than using single-point. For the first time, we demonstrate that training scene text spotting models can be achieved with an extremely low-cost single-point annotation by the proposed framework, termed SPTS v2. SPTS v2 reserves the advantage of the auto-regressive Transformer with an Instance Assignment Decoder (IAD) through sequentially predicting the center points of all text instances inside the same predicting sequence, while with a Parallel Recognition Decoder (PRD) for text recognition in parallel. These two decoders share the same parameters and are interactively connected with a simple but effective information transmission process to pass the gradient and information. Comprehensive experiments on various existing benchmark datasets demonstrate the SPTS v2 can outperform previous state-of-the-art single-point text spotters with fewer parameters while achieving 14x faster inference speed. Most importantly, within the scope of our SPTS v2, extensive experiments further reveal an important phenomenon that single-point serves as the optimal setting for the scene text spotting compared to non-point, rectangular bounding box, and polygonal bounding box. Such an attempt provides a significant opportunity for scene text spotting applications beyond the realms of existing paradigms. Code is available at https://github.com/shannanyinxiang/SPTS.
翻訳日:2023-01-05 15:03:48 公開日:2023-01-04
# 反復分解:推論プロセスの監督による科学Q&Aの改善

Iterated Decomposition: Improving Science Q&A by Supervising Reasoning Processes ( http://arxiv.org/abs/2301.01751v1 )

ライセンス: Link先を確認
Justin Reppert, Ben Rachbach, Charlie George, Luke Stebbing Jungwon Byun, Maggie Appleton, Andreas Stuhlm\"uller(参考訳) 言語モデル(LM)は、エンド・ツー・エンド、隠れた潜在状態、または透明な中間状態で複雑な推論を行うことができる。 compositionは解釈性と安全性のメリットを提供するが、競争力を維持するためにはワークフローのサポートとインフラストラクチャが必要になる。 構成的LMプログラムの開発と精錬を行うためのヒューマン・イン・ザ・ループ・ワークフローである反復分解について述べる。 故障したコンポーネントをズームインし、分解、追加コンテキスト、思考の連鎖などを通じて、構成の性能を向上させる。 このワークフローをサポートするために,LMプログラムの実行トレースを可視化するオープンソースツールICEを開発した。 実世界の3つのタスクに反復分解を適用し,少ない構成ベースラインよりもLMプログラムの精度を向上させる。ランダム化比較試験(25%から65%)で使用されるプラセボを記述し,医療介入(53%から70%)への順応性を評価し,Qasperデータセット(38%から69%)でNLP質問に回答する。 これらのアプリケーションは、自動化されれば、ますます複雑なタスクにスケールしてもmlシステムを解釈し安全に保つことができるワークフローのケーススタディとして機能する。

Language models (LMs) can perform complex reasoning either end-to-end, with hidden latent state, or compositionally, with transparent intermediate state. Composition offers benefits for interpretability and safety, but may need workflow support and infrastructure to remain competitive. We describe iterated decomposition, a human-in-the-loop workflow for developing and refining compositional LM programs. We improve the performance of compositions by zooming in on failing components and refining them through decomposition, additional context, chain of thought, etc. To support this workflow, we develop ICE, an open-source tool for visualizing the execution traces of LM programs. We apply iterated decomposition to three real-world tasks and improve the accuracy of LM programs over less compositional baselines: describing the placebo used in a randomized controlled trial (25% to 65%), evaluating participant adherence to a medical intervention (53% to 70%), and answering NLP questions on the Qasper dataset (38% to 69%). These applications serve as case studies for a workflow that, if automated, could keep ML systems interpretable and safe even as they scale to increasingly complex tasks.
翻訳日:2023-01-05 15:03:19 公開日:2023-01-04
# 語彙インフォームドゼロショットとオープンセット学習

Vocabulary-informed Zero-shot and Open-set Learning ( http://arxiv.org/abs/2301.00998v2 )

ライセンス: Link先を確認
Yanwei Fu, Xiaomei Wang, Hanze Dong, Yu-Gang Jiang, Meng Wang, Xiangyang Xue, Leonid Sigal(参考訳) オブジェクト分類の大幅な進歩にもかかわらず、近年では、ラベル付きデータから学習し、大きな、潜在的にオープンなラベルセット内でオブジェクトクラスを認識する能力など、多くの重要な課題が残っている。 ゼロショット学習はこれらの課題に対処する方法の1つであるが、限られたサイズのクラス語彙でのみ機能することが示されており、通常は教師なしクラスと教師なしクラスを分離する必要がある。 本稿では,上記の課題を軽減し,教師付き,ゼロショット,一般化されたゼロショット,オープンセット認識の問題を統一フレームワークを用いて解決するための語彙非形式学習の概念を提案する。 具体的には、(教師なしおよび教師なし)語彙原子間の距離制約を組み込んだ、意味多様体に基づく認識のための重み付き最大マージンフレームワークを提案する。 距離制約によりラベル付きサンプルは、埋め込み空間において、他のものよりも正しいプロトタイプに近い位置に投影される。 得られたモデルは、教師付き、ゼロショット、一般化されたゼロショット、および大きなオープンセット認識の改善を示し、Animal with AttributesとImageNetデータセットで最大310Kの語彙を持つ。

Despite significant progress in object categorization, in recent years, a number of important challenges remain; mainly, the ability to learn from limited labeled data and to recognize object classes within large, potentially open, set of labels. Zero-shot learning is one way of addressing these challenges, but it has only been shown to work with limited sized class vocabularies and typically requires separation between supervised and unsupervised classes, allowing former to inform the latter but not vice versa. We propose the notion of vocabulary-informed learning to alleviate the above mentioned challenges and address problems of supervised, zero-shot, generalized zero-shot and open set recognition using a unified framework. Specifically, we propose a weighted maximum margin framework for semantic manifold-based recognition that incorporates distance constraints from (both supervised and unsupervised) vocabulary atoms. Distance constraints ensure that labeled samples are projected closer to their correct prototypes, in the embedding space, than to others. We illustrate that resulting model shows improvements in supervised, zero-shot, generalized zero-shot, and large open set recognition, with up to 310K class vocabulary on Animal with Attributes and ImageNet datasets.
翻訳日:2023-01-05 12:54:29 公開日:2023-01-04
# コーポレートロビイストとしての大規模言語モデル

Large Language Models as Corporate Lobbyists ( http://arxiv.org/abs/2301.01181v2 )

ライセンス: Link先を確認
John J. Nay(参考訳) コーポレートロビー活動を行う大規模言語モデルの概念実証を実証する。 自己回帰的大言語モデル(OpenAIのtext-davinci-003)は、提案された米国議会法案が特定の公共企業に関連するかどうかを決定し、説明と信頼レベルを提供する。 モデルが関連するものとみなす法案について、モデルは提案された法律を変更するよう議会に説得するために、法案のスポンサーに手紙を起草する。 我々は、このモデルの性能をベンチマークするために、企業に対する法案の関連性に関する数百の地道なラベルを使用します。 また,従来の OpenAI GPT-3 モデル (text-davinci-002) の性能をベンチマークし,2022年11月28日にtext-davinci-003 がリリースされるまで,多くの言語タスクの最先端であった。 テキストダヴィンチ002のパフォーマンスは、単に法案が企業と無関係であると予測するよりも悪い。 これらの結果から,大規模言語モデルが中核的な自然言語理解能力の向上を継続するにつれ,企業ロビー活動に関わるタスクのパフォーマンスが向上し続けることが示唆された。 そして、これが社会とAIの整合性に問題となる理由について議論する。

We demonstrate a proof-of-concept of a large language model conducting corporate lobbying related activities. An autoregressive large language model (OpenAI's text-davinci-003) determines if proposed U.S. Congressional bills are relevant to specific public companies and provides explanations and confidence levels. For the bills the model deems as relevant, the model drafts a letter to the sponsor of the bill in an attempt to persuade the congressperson to make changes to the proposed legislation. We use hundreds of ground-truth labels of the relevance of a bill to a company to benchmark the performance of the model, which outperforms the baseline of predicting the most common outcome of irrelevance. We also benchmark the performance of the previous OpenAI GPT-3 model (text-davinci-002), which was state-of-the-art on many language tasks until text-davinci-003 was released on November 28, 2022. The performance of text-davinci-002 is worse than simply always predicting that a bill is irrelevant to a company. These results suggest that, as large language models continue to exhibit improved core natural language understanding capabilities, performance on corporate lobbying related tasks will continue to improve. We then discuss why this could be problematic for societal-AI alignment.
翻訳日:2023-01-05 12:54:07 公開日:2023-01-04
# HCI設計におけるAIとユーザエクスペリエンス

AI in HCI Design and User Experience ( http://arxiv.org/abs/2301.00987v2 )

ライセンス: Link先を確認
Wei Xu(参考訳) この章では、HCI/UX作業におけるAIテクノロジの変革をレビューし、議論し、AIテクノロジがどのように作業を行うかを評価する。 まず、ユーザリサーチと設計評価の結果を高めるためにAIをどのように利用できるかについて議論する。 そして、HCI/UX設計を強化するためにAI技術をどのように使用できるかについて議論する。 最後に、ユーザがコンピュータシステム、アプリケーション、サービスと対話するとき、AI機能によってUXが向上する方法について論じる。

In this chapter, we review and discuss the transformation of AI technology in HCI/UX work and assess how AI technology will change how we do the work. We first discuss how AI can be used to enhance the result of user research and design evaluation. We then discuss how AI technology can be used to enhance HCI/UX design. Finally, we discuss how AI-enabled capabilities can improve UX when users interact with computing systems, applications, and services.
翻訳日:2023-01-05 12:53:44 公開日:2023-01-04
# 逆境下におけるリスク・アバースMDP

Risk-Averse MDPs under Reward Ambiguity ( http://arxiv.org/abs/2301.01045v2 )

ライセンス: Link先を確認
Haolin Ruan, Zhi Chen and Chin Pang Ho(参考訳) リスクと報酬の曖昧さを考慮したマルコフ決定過程(mdps)に対する分布的ロバストな回帰リスクモデルを提案する。 提案モデルでは, 平均およびパーセンタイル性能の重み付け平均を最適化し, 分散的に堅牢なMDPと, 分散的に頑健なMDP(どちらも報酬あいまいさ下で)を特殊ケースとして扱う。 未知の報酬分布がwassersteinの曖昧性集合にあることを考慮し、モデルに対する扱いやすい再構成を導出する。 特に,回帰リスクモデルは,決定論的方針のみを求める場合,不確定な遷移カーネルからのリスクも考慮でき,パーセンタイル基準の下では分布的に頑健なmdpを,その名目上のリスクレベルで再編成できることを示す。 スケーラブルな一階アルゴリズムは,大規模問題を解くために設計され,数値実験により提案するモデルとアルゴリズムの利点を実証する。

We propose a distributionally robust return-risk model for Markov decision processes (MDPs) under risk and reward ambiguity. The proposed model optimizes the weighted average of mean and percentile performances, and it covers the distributionally robust MDPs and the distributionally robust chance-constrained MDPs (both under reward ambiguity) as special cases. By considering that the unknown reward distribution lies in a Wasserstein ambiguity set, we derive the tractable reformulation for our model. In particular, we show that that the return-risk model can also account for risk from uncertain transition kernel when one only seeks deterministic policies, and that a distributionally robust MDP under the percentile criterion can be reformulated as its nominal counterpart at an adjusted risk level. A scalable first-order algorithm is designed to solve large-scale problems, and we demonstrate the advantages of our proposed model and algorithm through numerical experiments.
翻訳日:2023-01-05 12:53:35 公開日:2023-01-04
# グラフニューラルネットワークのための公正な知識蒸留

RELIANT: Fair Knowledge Distillation for Graph Neural Networks ( http://arxiv.org/abs/2301.01150v2 )

ライセンス: Link先を確認
Yushun Dong, Binchi Zhang, Yiling Yuan, Na Zou, Qi Wang, Jundong Li(参考訳) グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクのパフォーマンスを満足している。 適合性を向上するために、ほとんどのGNNは多数のパラメータを持ち、これらのGNNは計算コストがかかる。 そのため、携帯電話やウェアラブルスマートデバイスなど、計算資源の少ないエッジデバイスにデプロイすることは困難である。 知識蒸留(KD)はGNNを圧縮するための一般的な解であり、軽量モデル(学生モデル)は計算コストの高いGNN(教師GNNモデル)の振る舞いを模倣するよう奨励される。 しかしながら、既存のほとんどのGNNベースのKD手法は公平性を考慮していない。 結果として、学生モデルは通常、教師のGNNからの偏見を継承し、誇張する。 このような問題に対処するため、我々はGNNの公正な知識蒸留に向けて最初の一歩を踏み出した。 具体的には,まず,gnn を基盤とした教師教育枠組みにおける公平な知識蒸留の新たな課題を定式化する。 次に,学生モデルが提示するバイアスを軽減するために,RELIANTというフレームワークを提案する。 特に、RELIANTの設計は特定の教師や学生のモデル構造から切り離され、様々なGNNベースのKDフレームワークに容易に適応できる。 我々は,複数の実世界のデータセットについて広範な実験を行い,高い予測能力を維持しつつ,依存度の低いgnn知識蒸留を実現することを裏付ける。

Graph Neural Networks (GNNs) have shown satisfying performance on various graph learning tasks. To achieve better fitting capability, most GNNs are with a large number of parameters, which makes these GNNs computationally expensive. Therefore, it is difficult to deploy them onto edge devices with scarce computational resources, e.g., mobile phones and wearable smart devices. Knowledge Distillation (KD) is a common solution to compress GNNs, where a light-weighted model (i.e., the student model) is encouraged to mimic the behavior of a computationally expensive GNN (i.e., the teacher GNN model). Nevertheless, most existing GNN-based KD methods lack fairness consideration. As a consequence, the student model usually inherits and even exaggerates the bias from the teacher GNN. To handle such a problem, we take initial steps towards fair knowledge distillation for GNNs. Specifically, we first formulate a novel problem of fair knowledge distillation for GNN-based teacher-student frameworks. Then we propose a principled framework named RELIANT to mitigate the bias exhibited by the student model. Notably, the design of RELIANT is decoupled from any specific teacher and student model structures, and thus can be easily adapted to various GNN-based KD frameworks. We perform extensive experiments on multiple real-world datasets, which corroborates that RELIANT achieves less biased GNN knowledge distillation while maintaining high prediction utility.
翻訳日:2023-01-05 12:53:16 公開日:2023-01-04