このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20221228となっている論文です。

PDF登録状況(公開日: 20221228)

TitleAuthorsAbstract論文公表日・翻訳日
# neinei --ブラジル多目的炉の中性子イメージングセンター

Neinei -- The Neutron Imaging Center at the Brazilian Multipurpose Reactor ( http://arxiv.org/abs/2208.07172v2 )

ライセンス: Link先を確認
Luiz P. de Oliveira, Alexandre P.S. Souza, Frederico A. Genezini and Adimir dos Santos(参考訳) 中性子イメージングは、考古学や工業材料の構造など幅広い種類の材料を分析する非破壊技術である。 近年の技術進歩は中性子イメージング技術に大きな影響を与え、フィルム(2D)を用いた単純なラジオグラフィーからデジタル処理による最新のトモグラフィーシステム(3D)へと進化してきた。 ブラジルのInstituto de Pesquisas Energ\'eticas e Nucleares (IPEN)には、IEA-R1と呼ばれる5MWの原子炉があり、ビームホール08(BH08)に中性子イメージング装置があり、サンプル位置は1.0 \times 10^{6}$ $n/cm^{2}s$である。 IEA-R1は60歳以上で、画像を含むブラジルの中性子科学の未来は、ブラジル多目的炉(RMB)と呼ばれる新しい施設に拡張される。 RMBは中性子研究所に、Neineiと呼ばれる中性子イメージング施設を含む一連の機器を収容する。 近年の研究では,モンテカルロ法を用いて試料位置の熱中性子フラックスを計算し,ニュートラ (PSI) ,アンタレス (FRM II) ,BT2 (NIST) およびINGO (OPAL) で得られた結果と比較した。 結果は有望であり、今後の改善への道筋を提供する。

Neutron imaging is a non-destructive technique for analyzing a wide class of materials, such as archaeological or structures of industrial materials. Technological advances, in recent decades, have had a great impact on the neutron imaging technique, evolving from simple radiographs using films (2D) to modern tomography systems with digital processing (3D). The Instituto de Pesquisas Energ\'eticas e Nucleares (IPEN), in Brazil, houses a 5MW research nuclear reactor, called IEA-R1, where there is a neutron imaging instrument located at the beam hole 08 (BH08) with $1.0 \times 10^{6}$ $n/cm^{2}s$ in the sample position. IEA-R1 is over 60 years old and the future of neutron science in Brazil, including imaging, will be expanded on a new facility called the Brazilian Multipurpose Reactor (RMB). The RMB will house a suite of instruments at the Neutron National Laboratory, including the neutron imaging facility called Neinei. Inspired by recent work, we have calculated the thermal neutron flux at the sample position, using the Monte Carlo method, in the Neinei and compared it to the results obtained with the Neutra (PSI), Antares (FRM II), BT2 (NIST) and DINGO (OPAL) instruments. The results are promising and provide avenues for future improvements.
翻訳日:2023-01-31 01:40:39 公開日:2022-12-28
# 人工知能による技術特異性リスクの超予測

Super forecasting the technological singularity risks from artificial intelligence ( http://arxiv.org/abs/2301.10028v1 )

ライセンス: Link先を確認
Petar Radanliev, David De Roure, Carsten Maple, Uchenna Ani(参考訳) この記事では、サイバーセキュリティにおけるAIの統合から、新たなサイバーリスクを予測する。

The article forecasts emerging cyber-risks from the integration of AI in cybersecurity.
翻訳日:2023-01-29 13:29:40 公開日:2022-12-28
# 非マルコフアブラハム-ロレンツ--ディラック方程式:病理のない放射線反応

NonMarkovian Abraham--Lorentz--Dirac Equation: Radiation Reaction without Pathology ( http://arxiv.org/abs/2209.02219v2 )

ライセンス: Link先を確認
Jen-Tsung Hsiang and Bei-Lok Hu(参考訳) 電磁場における点電荷放出放射の運動は、アブラハム・ローレンツ・ディラック方程式(ald)に従っており、放射反応や自己力による影響がある。 反作用を記述するこの方程式は、重力自己力の方程式やトレース異常によって駆動される宇宙論のアインシュタイン方程式を含む、三階微分項を含む。 それらは、暴走解の保持、事前加速における因果性違反、および余分な二階微分初期条件の必要性のような病理を持っていることが知られている。 現在のプログラムでは、初期の宇宙におけるバックリアクション問題に先立って適用されたオープンシステムにおける非マルコフ力学の観点から、この古い問題を再検討する。 ここでは、スカラー電場と結合した調和原子を、スカラー電磁力学と同様に、超音速環境として効果的に作用する。 私たちの分析は a) 初期条件について第2のデリバティブを指定する必要はない。 b) 事前の加速はない。 従来の処理におけるこれらの望ましくない特徴は、矛盾するマルコフの仮定から生じており、これらの方程式はマルコフのab initioと見なされ、反反応を阻害する非マルコフ運動方程式の極限とは見なされなかった。 完全な非マルコフ力学方程式から始まり、適切なマルコフ極限を公平に取ると、害はなされない。 最後に c) 運動方程式における高次微分項と脱落解の存在との間に因果関係は存在しない。 電荷がこの臨界値よりも大きな有効サイズを持つなら、その力学は安定である。 この合理的条件が満たされると、非正則非マルコフ力学における放射反応は3階微分方程式に従うが、2階微分初期条件は必要とせず、事前加速は存在しない。

Motion of a point charge emitting radiation in an electromagnetic field obeys the Abraham-Lorenz-Dirac (ALD) equation, with the effects of radiation reaction or self-force incorporated. This class of equations describing backreaction, including also the equations for gravitational self-force or Einstein's equation for cosmology driven by trace anomaly, contain third-order derivative terms. They are known to have pathologies like the possession of runaway solutions, causality violation in pre-acceleration and the need for an extra second-order derivative initial condition. In our current program we reexamine this old problem from the perspective of non-Markovian dynamics in open systems, applied earlier to backreaction problems in the early universe. Here we consider a harmonic atom coupled to a scalar field, which acts effectively like a supra-Ohmic environment, as in scalar electrodynamics. Our analysis shows that a) there is no need for specifying a second derivative for the initial condition; b) there is no pre-acceleration. These undesirable features in conventional treatments arise from an inconsistent Markovian assumption: these equations were regarded as Markovian ab initio, not as a limit of the backreaction-imbued non-Markovian equation of motion. If one starts with the full non-Markovian dynamical equation and takes the proper Markovian limit judiciously, no harms are done. Finally, c) There is no causal relation between the higher-derivative term in the equation of motion and the existence of runaway solutions. If the charge has an effective size greater than this critical value, its dynamics is stable. When this reasonable condition is met, radiation reaction understood and treated correctly in the non-Ohmic non-Markovian dynamics still obeys a third-order derivative equation, but it does not require a second derivative initial condition, and there is no pre-acceleration.
翻訳日:2023-01-27 18:35:50 公開日:2022-12-28
# 非線形共振キャビティにおける粒子生成の促進

Enhancement of particle creation in nonlinear resonant cavities ( http://arxiv.org/abs/2209.10462v2 )

ライセンス: Link先を確認
Dmitrii A. Trunin(参考訳) 共鳴振動キャビティ内の粒子生成速度は、大きな進化時間にほぼ一定であることが知られている。 シュウィンガー・ケルディッシュ図式を用いて非線形相互作用が非ゼロ量子平均を生成し、この速度を大幅に向上させることを示した。 この現象を説明するために, 1次元キャビティにおけるクォート相互作用を持つ無質量スカラー場と, 基本周波数の2倍の周波数で完全に反射する壁とを考察した。

The rate of particle creation in a resonantly oscillating cavity is known to be approximately constant at large evolution times. Employing the Schwinger-Keldysh diagrammatic technique, we show that nonlinear interactions generate nonzero quantum averages and significantly enhance this rate. To illustrate this phenomenon, we consider a massless scalar field with a quartic interaction in a one-dimensional cavity with perfectly reflecting walls oscillating at twice the fundamental frequency.
翻訳日:2023-01-25 20:35:49 公開日:2022-12-28
# 開量子系の理論入門

Introduction to the theory of open quantum systems ( http://arxiv.org/abs/2209.10928v4 )

ライセンス: Link先を確認
Piotr Sza\'nkowski(参考訳) この写本は、2022年の春・夏学期におけるポーランド科学アカデミー物理学研究所のPhD学校で与えられた1学期卒業課程の講義スクリプトの編集・洗練版である。 このコースは、大学院レベルの量子力学の基礎知識のみを学生から期待している。 スクリプト自体は主に自己完結型であり、オープン量子システムのトピックに関する教科書として使用できる。 このコースのプログラムは、オープンシステムの力学を記述するための新しいアプローチに基づいており、システムに結合された環境自由度が、マルチコンポーネント準確率過程によってどのように表現できるかを示す。 この表現を用いて、システムの力学写像の超四次累積(あるいは超量子)拡大(英語版)(super-quasi-cumulant)を構成する。 したがって、経験豊富な研究者でさえ、この写本に興味を持っているかもしれない。

This manuscript is an edited and refined version of the lecture script for a one-semester graduate course given originally at the PhD school in the Institute of Physics of Polish Academy of Sciences in the Spring/Summer semester of 2022. The course expects from the student only a basic knowledge on graduate-level quantum mechanics. The script itself is largely self-contained and could be used as a textbook on the topic of open quantum systems. The program of this course is based on a novel approach to the description of the open system dynamics: It is showed how the environmental degrees of freedom coupled to the system can be represented by a multi-component quasi-stochastic process. Using this representation one constructs the super-quasi-cumulant (or super-qumulant) expansion for the system's dynamical map -- a parametrization that naturally lends itself for the development of a robust and practical perturbation theory. Thus, even an experienced researcher might find this manuscript of some interest.
翻訳日:2023-01-25 18:06:53 公開日:2022-12-28
# 損失チャネルネットワークにおける効率的なディック状態生成

Efficient Dicke state generation in a network of lossy channels ( http://arxiv.org/abs/2211.15138v2 )

ライセンス: Link先を確認
Wojciech Roga, Rikizo Ikuta, Tomoyuki Horikiri, Masahiro Takeoka(参考訳) マルチパート光ネットワークにおける絡み合いの発生を解析する。 我々は、ツインフィールド戦略をマルチパーティケースに一般化し、我々のプロトコルがスターネットワーク上でW状態とDicke状態の分散に有利な速度損失スケーリングを持つことを示す。 正確な理論式と定量的性能分析を行う。 また,多くの実験実験の典型的な構成である資源としてガウス状態を用いた同一のプロトコルの解析を行う。

We analyze the generation of entanglement in a multipartite optical network. We generalize the twin-field strategy to the multipartie case and show that our protocol has advantageous rate-loss scalings of distributing W states and Dicke states over the star networks. We give precise theoretical formulas and quantitative performance analyses. Also analysis of the same protocol using Gaussian states as resources, which is a typical setup of many experimental tests, is provided.
翻訳日:2023-01-17 15:08:19 公開日:2022-12-28
# 生涯学習用デュアルメモリシステムにおけるスパース符号化

Sparse Coding in a Dual Memory System for Lifelong Learning ( http://arxiv.org/abs/2301.05058v1 )

ライセンス: Link先を確認
Fahad Sarfraz, Elahe Arani, Bahram Zonooz(参考訳) ヒトの効果的な連続学習は、豊富な神経生理学的メカニズムと複数の記憶システム間の相互作用によって実現される。 脳は、重複しないスパース符号で情報を効率的にエンコードし、新しい関連をより早く学習し、以前の関連との干渉を制御する。 dnnにおけるスパースコーディングを模倣するために、モデルが意味的に類似した入力に対して類似のユニットを活性化することを奨励し、意味的に異なる入力のアクティベーションパターンとの重なりを少なくするドロップアウト機構と共に、アクティベーションスパーシティを強制する。 これにより、タスク間のクラスの類似性に応じて、機能の再利用性と干渉のバランスをとる効率的なメカニズムが得られます。 さらに,マルチメモリ再生機構においてスパース符号化を用いる。 本手法は,作業モデルのシナプス重みに符号化された情報を集約・集約する,長期記憶を付加する。 評価と特徴分析により,これらの生物学的にインスパイアされたメカニズムを取り入れたモデルにより,忘れの軽減が図られた。

Efficient continual learning in humans is enabled by a rich set of neurophysiological mechanisms and interactions between multiple memory systems. The brain efficiently encodes information in non-overlapping sparse codes, which facilitates the learning of new associations faster with controlled interference with previous associations. To mimic sparse coding in DNNs, we enforce activation sparsity along with a dropout mechanism which encourages the model to activate similar units for semantically similar inputs and have less overlap with activation patterns of semantically dissimilar inputs. This provides us with an efficient mechanism for balancing the reusability and interference of features, depending on the similarity of classes across tasks. Furthermore, we employ sparse coding in a multiple-memory replay mechanism. Our method maintains an additional long-term semantic memory that aggregates and consolidates information encoded in the synaptic weights of the working model. Our extensive evaluation and characteristics analysis show that equipped with these biologically inspired mechanisms, the model can further mitigate forgetting.
翻訳日:2023-01-15 23:08:10 公開日:2022-12-28
# メタバース実現のための6Gの必要性

Need of 6G for the Metaverse Realization ( http://arxiv.org/abs/2301.03386v1 )

ライセンス: Link先を確認
Bartlomiej Siniarski, Chamitha De Alwis, Gokul Yenduri, Thien Huynh-The, G\"Urkan G\"Ur, Thippa Reddy Gadekallu and Madhusanka Liyanage(参考訳) Metaverseの概念は、次世代のアプリケーションやサービスを提供するために、本格的な拡張現実環境を提供することを目的としている。 Metaverseの開発には、5G、人工知能、エッジコンピューティング、拡張現実など多くの技術が支援している。 6gの出現は、メタバースの開発において重要なマイルストーンとなり、ほぼゼロの相対性、多くの新しいサービス、現実世界のインフラのアップグレードを促進する。 本稿では,6G 上でのMetaverse サービス提供のメリットと,要求される技術的要件の概要を明らかにする。 この論文は、6gモバイルネットワークのメタバースの概念と展望された技術的能力についての洞察を提供する。 次に、メタバース開発のための6gをカバーする技術的側面、デジタル資産の検証、相互運用性、メタバースにおける効率的なユーザインタラクションから関連するセキュリティやプライバシの側面までについて詳述する。 その後、人工知能、ブロックチェーン、オープン無線アクセスネットワーク、エッジコンピューティング、クラウド化、インターネットなど、Metaverseを実現するための6Gテクノロジの役割も果たした。 論文はまた、6g統合の課題を提示し、メタバースアプリケーションとサービスを促進するメタバース技術の開発に向けた進行中のプロジェクトの概要を示す。

The concept of the Metaverse aims to bring a fully-fledged extended reality environment to provide next generation applications and services. Development of the Metaverse is backed by many technologies, including, 5G, artificial intelligence, edge computing and extended reality. The advent of 6G is envisaged to mark a significant milestone in the development of the Metaverse, facilitating near-zero-latency, a plethora of new services and upgraded real-world infrastructure. This paper establishes the advantages of providing the Metaverse services over 6G along with an overview of the demanded technical requirements. The paper provides an insight to the concepts of the Metaverse and the envisaged technical capabilities of 6G mobile networks. Then, the technical aspects covering 6G for the development of the Metaverse, ranging from validating digital assets, interoperability, and efficient user interaction in the Metaverse to related security and privacy aspects are elaborated. Subsequently, the role of 6G technologies towards enabling the Metaverse, including artificial intelligence, blockchain, open radio access networks, edge computing, cloudification and internet of everything. The paper also presents 6G integration challenges and outlines ongoing projects towards developing the Metaverse technologies to facilitate the Metaverse applications and services.
翻訳日:2023-01-15 23:07:00 公開日:2022-12-28
# 非線形シグマモデルの非可逆欠陥と位相次数への結合

Non-Invertible Defects in Nonlinear Sigma Models and Coupling to Topological Orders ( http://arxiv.org/abs/2212.08608v2 )

ライセンス: Link先を確認
Po-Shen Hsin(参考訳) 非線形シグマモデルは、自然に破れた連続的大域対称性を持つ長距離順序など、様々な物理文脈に現れる。 位相図には、既知の紫外線完全量子場理論記述なしでシグマモデルの記述を許容する量子臨界性の大きなクラスもある。 任意の時空次元における一般的な非線形シグマモデルの欠陥について検討し、その欠陥上のトポロジカル相互作用によって特徴づけられる「電気的」欠陥と、等距離群とホモトピー群によって特徴づけられる「磁気的」欠陥を含む。 電荷束アタッチメントの類似体を用いて、磁気欠陥が一般に非可逆であることを示し、電気的および磁気的欠陥は、異なる次元の欠陥を高群対称性の類似体に結合する接合を形成する。 非線形シグマモデルとトポロジカル量子場理論を結合する欠陥アタッチメントによる一般化について検討し、非可逆核融合と欠陥のブレイディングを修飾する。 エネルギースケールの制約やゲージ理論における自発的対称性の破れを伴う低エネルギーダイナミクスのシナリオ、アクシオンゲージ理論など、いくつかの応用について論じる。

Nonlinear sigma models appear in a wide variety of physics contexts, such as the long-range order with spontaneously broken continuous global symmetries. There are also large classes of quantum criticality admit sigma model descriptions in their phase diagrams without known ultraviolet complete quantum field theory descriptions. We investigate defects in general nonlinear sigma models in any spacetime dimensions, which include the "electric" defects that are characterized by topological interactions on the defects, and the "magnetic" defects that are characterized by the isometries and homotopy groups. We use an analogue of the charge-flux attachment to show that the magnetic defects are in general non-invertible, and the electric and magnetic defects form junctions that combine defects of different dimensions into analogues of higher-group symmetry. We explore generalizations that couple nonlinear sigma models to topological quantum field theories by defect attachment, which modifies the non-invertible fusion and braiding of the defects. We discuss several applications, including constraints on energy scales and scenarios of low energy dynamics with spontaneous symmetry breaking in gauge theories, and axion gauge theories.
翻訳日:2023-01-09 13:11:02 公開日:2022-12-28
# ダイヤモンド中の不規則双極子スピンアンサンブルにおける準フロッケ予熱

Quasi-Floquet prethermalization in a disordered dipolar spin ensemble in diamond ( http://arxiv.org/abs/2212.11284v2 )

ライセンス: Link先を確認
Guanghui He, Bingtian Ye, Ruotian Gong, Zhongyuan Liu, Kater W. Murch, Norman Y. Yao, Chong Zu(参考訳) フロッケ(周期)駆動は、量子系を工学し、物質の非平衡相を実現する強力な技術として最近登場した。 このような系における量子現象の安定化に対する中心的な課題は、駆動場からのエネルギー吸収を防ぐことである。 幸いなことに、ドライブの周波数が多体系の局所エネルギースケールよりもかなり大きい場合、エネルギー吸収が抑制される。 このいわゆる予熱状態の存在は、相互作用の範囲と複数の駆動周波数の存在に敏感に依存する。 本稿では,双極子カップリングの角度依存性が相互作用の長距離的性質の緩和に寄与するダイヤモンドの強相互作用双極子スピンアンサンブルにおけるフロッケ予熱の観測について報告する。 さらに、実験結果を複数の非共振周波数の準フロケットドライブに拡張する。 単周波駆動とは対照的に、熱前化の存在は印加された磁場の滑らかさに非常に敏感であることがわかった。 結果は準周期駆動系における非平衡現象の安定化と特徴付けの扉を開く。

Floquet (periodic) driving has recently emerged as a powerful technique for engineering quantum systems and realizing non-equilibrium phases of matter. A central challenge to stabilizing quantum phenomena in such systems is the need to prevent energy absorption from the driving field. Fortunately, when the frequency of the drive is significantly larger than the local energy scales of the many-body system, energy absorption is suppressed. The existence of this so-called prethermal regime depends sensitively on the range of interactions and the presence of multiple driving frequencies. Here, we report the observation of Floquet prethermalization in a strongly interacting dipolar spin ensemble in diamond, where the angular dependence of the dipolar coupling helps to mitigate the long-ranged nature of the interaction. Moreover, we extend our experimental observation to quasi-Floquet drives with multiple incommensurate frequencies. In contrast to a single-frequency drive, we find that the existence of prethermalization is extremely sensitive to the smoothness of the applied field. Our results open the door to stabilizing and characterizing non-equilibrium phenomena in quasi-periodically driven systems.
翻訳日:2023-01-09 06:40:16 公開日:2022-12-28
# 量子力学と高速スクランブルに関する厳密な普遍境界

Exact universal bounds on quantum dynamics and fast scrambling ( http://arxiv.org/abs/2212.14021v1 )

ライセンス: Link先を確認
Amit Vikram and Victor Galitski(参考訳) マンデルシュタム・タムやマルゴルス・レヴィティン境界のような量子速度限界は、短時間のダイナミクスを制限するエネルギー時間不確実性原理を定量的に定式化する。 量子カオスの中心的な量であるスペクトル形状因子は、任意に長い時間にわたって初期状態の完全な集合の量子力学により厳密な普遍性を持つことを示す。 この境界はさらに、エネルギースペクトルが存在しない時間依存または散逸系のリアルタイムダイナミクスに自然に一般化する。 この結果を用いて、多体システム間の相互作用において情報のばらつきを抑える。 ハミルトニアン系では、相互作用の構造に制限を加えることなく、最も速いスクランブル時間(英語版)の基本的な問題は、フーリエ変換の非負性を含む状態の密度の純粋に数学的性質であることを示す。

Quantum speed limits such as the Mandelstam-Tamm or Margolus-Levitin bounds offer a quantitative formulation of the energy-time uncertainty principle that constrains dynamics over short times. We show that the spectral form factor, a central quantity in quantum chaos, sets a tighter universal bound on the quantum dynamics of a complete set of initial states over arbitrarily long times. This bound further generalizes naturally to the real-time dynamics of time-dependent or dissipative systems where no energy spectrum exists. We use this result to constrain the scrambling of information in interacting many-body systems. For Hamiltonian systems, we show that the fundamental question of the fastest possible scrambling time -- without any restrictions on the structure of interactions -- maps to a purely mathematical property of the density of states involving the non-negativity of Fourier transforms.
翻訳日:2023-01-09 04:15:31 公開日:2022-12-28
# 固有状態遷移におけるスケール不変生存確率

Scale invariant survival probability at eigenstate transitions ( http://arxiv.org/abs/2212.13888v1 )

ライセンス: Link先を確認
Miroslav Hopjan and Lev Vidmar(参考訳) 高励起ハミルトニアン固有状態における量子相転移の理解は、現時点では完成にはほど遠い。 時間領域における特徴付けのためのツールを確立することは特に重要である。 ここでは、典型的なハイゼンベルク時間の単位で時間を測定するスケールドサバイバル確率が、固有状態遷移におけるシステムサイズとは無関係に現れるような、ゆるい崩壊を示すことを論じる。 まず、この性質を1次元オーブリー・アンドレモデルと3次元アンダーソンモデルという2つのパラダイム的二次モデルで証明する。 驚くべきことに、同様の現象論はエルゴディシティ崩壊相転移の相互作用する雪崩モデルに現れる。 これにより、二次系における局在化遷移と相互作用系におけるエルゴード性破壊相転移との興味深い類似性が確立される。

Understanding quantum phase transitions in highly-excited Hamiltonian eigenstates is currently far from being complete. It is particularly important to establish tools for their characterization in time domain. Here we argue that a scaled survival probability, where time is measured in units of a typical Heisenberg time, exhibits a power-law decay that appears to be independent of system size at eigenstate transitions. We first demonstrate this property in two paradigmatic quadratic models, the one-dimensional Aubry-Andre model and three-dimensional Anderson model. Surprisingly, we then show that similar phenomenology emerges in the interacting avalanche model of ergodicity breaking phase transitions. This establishes an intriguing similarity between localization transition in quadratic systems and ergodicity breaking phase transition in interacting systems.
翻訳日:2023-01-09 04:04:15 公開日:2022-12-28
# フラストレーションのあるフェルミハバード磁石のドーピング

Doping a frustrated Fermi-Hubbard magnet ( http://arxiv.org/abs/2212.13983v1 )

ライセンス: Link先を確認
Muqing Xu, Lev Haldar Kendrick, Anant Kale, Youqi Gang, Geoffrey Ji, Richard T. Scalettar, Martin Lebrat and Markus Greiner(参考訳) 強相関系における幾何学的フラストレーションは、多くの新しい秩序状態や量子スピン液体のような興味深い磁気相を引き起こす。 このような相の有望な候補物質は、強相関と磁気フラストレーションの間の相互作用を捉えるパラダイムモデルである異方性三角形格子上のハバードモデルによって説明することができる。 しかし、正方形ハバード模型のドープ相との関係と同様に、単調なドーパントの存在下でのフラストレーションした磁性の運命は未だ不明である。 ここでは, 極低温フェルミオンを用いたハバードモデルの局所スピンオーダーを, 正方形から三角形に連続的に調整可能な異方性光学格子において探索する。 半充填で強い相互作用である$U/t \sim 9$では、フラストレーションが磁気相関の範囲を減らし、コリニアN'eel反強磁性体から短距離相関120$^{\circ}$スパイラル相へ遷移する様子を単一サイトレベルで観察する。 半充填から離れて、磁気相関は、三角形のジオメトリに近い粒子と穴の非対称性を示し、20\%$以上の粒子のドーピングで強磁性秩序への遷移を示唆する。 この研究は三角格子におけるキラル秩序あるいは超伝導相の探索の道を開き、銅酸化物材料の超伝導を記述するのに不可欠なt-tprime square lattice hubbardモデルを実現する。

Geometrical frustration in strongly correlated systems can give rise to a plethora of novel ordered states and intriguing magnetic phases such as quantum spin liquids. Promising candidate materials for such phases can be described by the Hubbard model on an anisotropic triangular lattice, a paradigmatic model capturing the interplay between strong correlations and magnetic frustration. However, the fate of frustrated magnetism in the presence of itinerant dopants remains unclear, as well as its connection to the doped phases of the square Hubbard model. Here, we probe the local spin order of a Hubbard model with controllable frustration and doping, using ultracold fermions in anisotropic optical lattices continuously tunable from a square to a triangular geometry. At half-filling and strong interactions $U/t \sim 9$, we observe at the single-site level how frustration reduces the range of magnetic correlations and drives a transition from a collinear N\'eel antiferromagnet to a short-range correlated 120$^{\circ}$ spiral phase. Away from half-filling, magnetic correlations show a pronounced asymmetry between particle and hole doping close to triangular geometries and hint at a transition to ferromagnetic order at a particle doping above $20\%$. This work paves the way towards exploring possible chiral ordered or superconducting phases in triangular lattices, and realizing t-tprime square lattice Hubbard models that may be essential to describe superconductivity in cuprate materials.
翻訳日:2023-01-09 03:48:16 公開日:2022-12-28
# ハミルトンシミュレーションのための一般量子アルゴリズムと非アベリア格子ゲージ理論への応用

General quantum algorithms for Hamiltonian simulation with applications to a non-Abelian lattice gauge theory ( http://arxiv.org/abs/2212.14030v1 )

ライセンス: Link先を確認
Zohreh Davoudi, Alexander F. Shaw, and Jesse R. Stryker(参考訳) 量子シミュレーションのための普遍量子コンピューティングと格子ゲージ理論の例により、非自明な関数係数を持つ多重(ボソニックおよびフェルミオン)量子数における相関変化からなる相互作用のクラスを効率的にシミュレートできる、かなり一般的な量子アルゴリズムを導入する。 特に,ハミルトニアン項の対角化を特異値分解法を用いて解析し,数値化時変作用素における達成された対角ユニタリをいかに実現できるかについて議論した。 格子ゲージ理論は1+1次元のSU(2)ゲージ理論であり、ステージングフェルミオンの1つのフレーバーと結合し、異なる計算モデルにおける完全な量子リソース解析が提示される。 これらのアルゴリズムは、アベリアおよび非アベリアゲージ理論と同様に高次元理論にも適用可能である。 選択された例は、効率的な理論定式化を採用することの重要性をさらに示している: ループ、弦、ハドロン(LSH)自由度を用いた明示的にゲージ不変な定式化は、アルゴリズムを単純化し、角運動量に基づく標準定式化とシュウィンガーボソン自由度に基づくコストを下げることを示した。 LSHの定式化は、コストのかかる操作を必要とせず、デジタル化されたシミュレーションの不正確さにもかかわらず、非アベリアゲージ対称性をさらに維持する。 このような理論的およびアルゴリズム的考察は、自然と関連する他の複雑な理論を量子シミュレーションする上で必須である可能性が高い。

With a focus on universal quantum computing for quantum simulation, and through the example of lattice gauge theories, we introduce rather general quantum algorithms that can efficiently simulate certain classes of interactions consisting of correlated changes in multiple (bosonic and fermionic) quantum numbers with non-trivial functional coefficients. In particular, we analyze diagonalization of Hamiltonian terms using a singular-value decomposition technique, and discuss how the achieved diagonal unitaries in the digitized time-evolution operator can be implemented. The lattice gauge theory studied is the SU(2) gauge theory in 1+1 dimensions coupled to one flavor of staggered fermions, for which a complete quantum-resource analysis within different computational models is presented. The algorithms are shown to be applicable to higher-dimensional theories as well as to other Abelian and non-Abelian gauge theories. The example chosen further demonstrates the importance of adopting efficient theoretical formulations: it is shown that an explicitly gauge-invariant formulation using loop, string, and hadron (LSH) degrees of freedom simplifies the algorithms and lowers the cost compared with the standard formulations based on angular-momentum as well as the Schwinger-boson degrees of freedom. The LSH formulation further retains the non-Abelian gauge symmetry despite the inexactness of the digitized simulation, without the need for costly controlled operations. Such theoretical and algorithmic considerations are likely to be essential in quantum simulating other complex theories of relevance to nature.
翻訳日:2023-01-09 03:47:35 公開日:2022-12-28
# 強CP問題と対称質量解

Strong CP Problem and Symmetric Mass Solution ( http://arxiv.org/abs/2212.14036v1 )

ライセンス: Link先を確認
Juven Wang(参考訳) 強 CP 問題に対する新しい解法を提案し、SU(3) 強力が 4d 標準モデル (SM) に対してほぼゼロのテータ角 $\bar\theta_3 \simeq 0$ を持つ理由を説明する。 新しい成分は対称質量生成(smg)であり、対称性保存質量またはエネルギーギャップは、対称性を壊さずに生成でき、かつ、二次平均場質量変形が無くとも、すべての摂動局所的かつ非摂動的大域的異常フリーである。 最初のモデルでは、マルチフェルミオン相互作用または動的不規則質量場によって生成されるu$クォーク(または一般にクォークとレプトンの組)に対する不規則な非平均場smgギャップ(アンダーソン-ヒッグス誘起質量ギャップの代わりに)を提案し、$\bar\theta_3$を吸収する。 この最初のモデルの別の変種は、SMフェルミオンの4番目のファミリーを仮説的に隠蔽するSMGギャップである。 2つ目のモデルでは、ニールセン-二宮フェルミオン共役を尊重するキラルSMとミラーSMを持ち、高エネルギーでのパリティ反射$\mathbb{Z}_2^{\rm PR}$対称性を持つので、$\bar\theta_3 = 0$である。 そして、smgは、大きなエネルギーギャップを持つミラーsmのみを持ち上げるが、キラルsmを低いエネルギーで残すため、パリティ反転対称性を最大に破壊するだけでなく、フェルミオン倍の除去により別の非摂動的キラルフェルミオン正規化問題を解くために、我々の解を関連付ける。 両方のSMGベースのモデルの予測的な特徴は、いくつかのSMフェルミオンやミラーフェルミオンが(従来のSMヒッグスやSMゲージの相互作用に加えて)仮説上の直接多重フェルミオンや乱れた質量場相互作用を介して、高度に相互作用していることである。

We propose a novel solution to the Strong CP problem -- to explain why SU(3) strong force has a nearly zero theta angle $\bar\theta_3 \simeq 0$ for the 4d Standard Model (SM). The new ingredient is Symmetric Mass Generation (SMG): symmetry-preserving mass or energy gap can be generated without breaking any symmetry $G$ and without any quadratic mean-field mass deformation as long as $G$ is all perturbative local and nonperturbative global anomaly-free. In our first model, we propose a disordered non-mean-field SMG gap (instead of the ordered Anderson-Higgs induced mass gap) for the $u$ quark (or generally a set of quarks and leptons totally anomaly-free in $G$) generated by multi-fermion interactions or by dynamical disordered mass fields, absorbing $\bar\theta_3$. Another variant of this first model is the SMG gapping a hypothetical hidden full fourth family of SM fermions. In our second model, we have a chiral SM and mirror SM together to respect the Nielsen-Ninomiya fermion-doubling and a parity-reflection $\mathbb{Z}_2^{\rm PR}$ symmetry at high energy, so the $\bar\theta_3 = 0$. Then the SMG lifts only the mirror SM with a large energy gap but leaves the chiral SM at lower energy, which not only "spontaneously" breaks the parity-reflection symmetry maximally but also relates our solution to solve another nonperturbative chiral fermion regularization problem by removing the fermion doubling. The predictive signature of both SMG-based models is that some SM fermions or mirror fermions are highly interacting (beyond the conventional SM Higgs or SM gauge interactions) mediated through hypothetical direct multi-fermion or disordered mass-field interactions.
翻訳日:2023-01-09 03:47:05 公開日:2022-12-28
# 局所バルク密度変動による量子化バレーホール応答

Quantized valley Hall response from local bulk density variations ( http://arxiv.org/abs/2212.14054v1 )

ライセンス: Link先を確認
Maxime Jamotte, Lucila Peralta Gavensky, Cristiane Morais Smith, Marco Di Liberto and Nathan Goldman(参考訳) 2次元材料への機械的ひずみの適用は擬似磁場を発生させ、量子化されたバレーホール効果をもたらす。 この現象を検出するために輸送測定を行うことができるが、結果として生じるシグネチャは通常脆弱であり、試料のエッジ終了に大きく依存する。 そこで本研究では,試料の奥深くにおける局所密度測定に完全依存する,量子化された谷ホール効果の検出方法を提案する。 結果として生じる量子化されたバルク応答は、エッジ物理学とは独立であり、widom-st\v{r}eda公式を通じてバレーホール効果を反映する。 具体的には, ひずみの強度を変化させて, 局所的に粒子密度の変動を測定した。 量子化された谷ホール効果に対するこのアプローチは、粒子密度(あるいは状態の集積密度)を空間的に解くことができる合成格子に基づく実験に特に適している。

The application of a mechanical strain to a 2D material can create pseudo-magnetic fields and lead to a quantized valley Hall effect. While transport measurements can be performed to detect this phenomenon, the resulting signatures are typically fragile and highly dependent on the sample's edge termination. Here, we introduce an alternative way of detecting the quantized valley Hall effect, which entirely relies on local density measurements, performed deep in the bulk of the sample. The resulting quantized bulk response is independent of the edge physics, and reflects the underlying valley Hall effect through the Widom-St\v{r}eda formula. Specifically, our approach is based on measuring the variation of the particle density, locally in the bulk, upon varying the strength of the applied strain. This approach to the quantized valley Hall effect is particularly well suited for experiments based on synthetic lattices, where the particle density (or integrated density of states) can be spatially resolved.
翻訳日:2023-01-09 03:46:26 公開日:2022-12-28
# テンソルの部分的縮退

Partial Degeneration of Tensors ( http://arxiv.org/abs/2212.14095v1 )

ライセンス: Link先を確認
Matthias Christandl, Fulvio Gesmundo, Vladimir Lysikov, Vincent Steffan(参考訳) 前者はテンソル因子上の局所線型写像によるテンソルの変換を記述し、後者は局所線型写像が曲線に沿って変化する可能性のある変換を記述し、結果として生じるテンソルはこの曲線に沿って極限として表される。 本研究では,局所線型写像の1つが定数であるのに対して,他の1つが曲線に沿って変化する特別な縮退版である部分退化を導入する。 代数的複雑性、量子エンタングルメント、テンソルネットワークによって動機付けられ、行列乗算テンソルに基づく構造を示し、前ホモジネティックテンソル空間の理論に接続することで例を見つける。 我々は、単位テンソルの妨害と分類結果を示すことにより、この新しい概念の微妙な性質を強調する。 この目的のために、テンソル階数の自然な一般化である補助階数の概念を研究する。 部分的退化の存在はテンソルの補助的ランクにおいて強い上限を与え、それによって退化を制限にすることができる。 特に、w-テンソルと銅スミス-ウィノグラードテンソルに基づいて、いくつかの例を示す。

Tensors are often studied by introducing preorders such as restriction and degeneration: the former describes transformations of the tensors by local linear maps on its tensor factors; the latter describes transformations where the local linear maps may vary along a curve, and the resulting tensor is expressed as a limit along this curve. In this work we introduce and study partial degeneration, a special version of degeneration where one of the local linear maps is constant whereas the others vary along a curve. Motivated by algebraic complexity, quantum entanglement and tensor networks, we present constructions based on matrix multiplication tensors and find examples by making a connection to the theory of prehomogenous tensor spaces. We highlight the subtleties of this new notion by showing obstruction and classification results for the unit tensor. To this end, we study the notion of aided rank, a natural generalization of tensor rank. The existence of partial degenerations gives strong upper bounds on the aided rank of the tensor, which in turn allows one to turn degenerations into restrictions. In particular, we present several examples, based on the W-tensor and the Coppersmith-Winograd tensors, where lower bounds on aided rank provide obstructions to the existence of certain partial degenerations.
翻訳日:2023-01-09 03:46:10 公開日:2022-12-28
# 自然光ハーベスティング系における電子振動共鳴は定常輸送を変化させない

Electronic-vibrational resonance does not alter steady-state transport in natural light-harvesting systems ( http://arxiv.org/abs/2212.13690v1 )

ライセンス: Link先を確認
Leonardo F. Calder\'on, Chern Chuang, Paul Brumer(参考訳) 時間依存2次元電子スペクトルの振動は、電子-振動共鳴相互作用に関連する光ハーベスティング系における量子コヒーレンスの証拠として現れる。 しかし、自然は非平衡定常状態で行われるため、これらの議論と自然過程との関連性は明らかでない。 本稿では,光合成二量体の非平衡定常状態における分子内振動の役割について考察する。 励起子状態間のエネルギー差に共振した振動は、自然非平衡定常状態の非共振振動と比較して、量子収率や輸送に関係するサイト間コヒーレンスの虚部を増加させないことが判明した。 すなわち、振動電子共鳴相互作用は自然の非コヒーレント光励起条件下でエネルギー輸送を変化させない。

Oscillations in time-dependent 2D electronic spectra appear as evidence of quantum coherence in light-harvesting systems related to electronic-vibrational resonant interactions. Nature, however, takes place in a non-equilibrium steady-state, so the relevance of these arguments to the natural process is unclear. Here we examine the role of intramolecular vibrations in the non-equilibrium steady-state of photosynthetic dimers in the natural scenario of incoherent light excitation. It is found that vibrations resonant with the energy difference between exciton states do not increase the quantum yield nor the imaginary part of the intersite coherence that is relevant for transport compared with non-resonant vibrations in the natural non-equilibrium steady state. That is, the vibration-electronic resonance interaction does not alter energy transport under natural incoherent-light excitation conditions.
翻訳日:2023-01-09 03:37:51 公開日:2022-12-28
# 高次異常点から出現する皮膚分画呼吸器の一群

A class of skin discrete breathers emerging from a high-order exceptional point ( http://arxiv.org/abs/2212.13765v1 )

ライセンス: Link先を確認
Hui Jiang, Enhong Cheng, Li-Jun Lang(参考訳) 1方向ホッピングモデルによって形成されたl$th次線形例外点 (ep) に対するカー非線形性による摂動について検討し、ホッピング駆動の1つの境界に集約された「it skin discrete breathers」 (略してスキンブレッシャー) と呼ばれる種類のブレッシャーを見つける。 これらの皮膚呼吸器の非線形スペクトルは、EPの近くで階層的なパワー則スケーリングを示し、すなわち、摂動に対する非線形エネルギーの応答は$E_m\propto \Gamma^{\alpha_{m}}$、$\alpha_m=3^{m-1}$は$m=1,\cdots、L$である。 これは一般に線形摂動の$l$thルートとは対照的である。 これらの皮膚呼吸器は、線形系のエッジ状態やスキンモードのように指数関数的にではなく、二重指数的に崩壊する。 Moreover, these skin breathers can survive over the full nonlinearity strength, continuously connected to the self-trapped states at the large limit, and they are also stable according to the stability analysis, which are reflected by a defined nonlinear fidelity of an adiabatic evolution.Since the nonreciprocal models are experimentally realized in optical systems where the Kerr's nonlinearity naturally exits, our results may stimulate more studies of interplay between nonlinearity and non-Hermiticity, especially the linear EPs.

We study the perturbation by a Kerr nonlinearity to a linear exceptional point (EP) of $L$th order formed by a unidirectionally hopping model and find a class of breathers, dubbed {\it skin discrete breathers} (skin breathers for short), that are aggregated to one boundary the hopping drives to. The nonlinear spectrum of these skin breathers demonstrates a hierarchical power-law scaling near the EP, i.e., the response of nonlinear energy to the perturbation $E_m\propto \Gamma^{\alpha_{m}}$, where $\alpha_m=3^{m-1}$ is the power with $m=1,\cdots,L$ labeling the nonlinear energy bands. This is in sharp contrast to the $L$th root of a generally linear perturbation. These skin breathers decay in a double-exponential way, not in the exponential way as the edge states or skin modes in linear systems. Moreover, these skin breathers can survive over the full nonlinearity strength, continuously connected to the self-trapped states at the large limit, and they are also stable according to the stability analysis, which are reflected by a defined nonlinear fidelity of an adiabatic evolution.Since the nonreciprocal models are experimentally realized in optical systems where the Kerr's nonlinearity naturally exits, our results may stimulate more studies of interplay between nonlinearity and non-Hermiticity, especially the linear EPs.
翻訳日:2023-01-09 03:37:38 公開日:2022-12-28
# 不確かさ原理と重力

Uncertainty principle and gravity ( http://arxiv.org/abs/2212.13776v1 )

ライセンス: Link先を確認
Fabio Scardigli(参考訳) 一般化不確実性原理(gup)を教育的に導入し、重力の作用が測定過程において考慮されたときに自然にどのように出現するかを示す。 GUPの物理的予測について概説する。 特に, 本実験では, 変形パラメータ $\beta$ の値と, ダークマターの候補であるブラックホール残差の予測に着目する。 ついでに、我々は、$\beta$と計算された理論値を引用し、まだ探索されていない広大なパラメータ領域について素早くコメントし、将来の実験によって調査する。

We give a pedagogical introduction to the generalized uncertainty principle (GUP), by showing how it naturally emerges when the action of gravity is taken into account in measurement processes. We review some physical predictions of the GUP. In particular we focus on the bounds that present experimental tests can put on the value of the deformation parameter $\beta$, and on the prediction of black hole remnants, which are a good candidate for dark matter. In passing, we also quote a theoretical value computed for $\beta$, and swiftly comment on the vast parameter region still unexplored, and to be probed by future experiments.
翻訳日:2023-01-09 03:37:14 公開日:2022-12-28
# 局所駆動型量子磁石の空間熱化

Real space thermalization of locally driven quantum magnets ( http://arxiv.org/abs/2212.13790v1 )

ライセンス: Link先を確認
Ronald Melendrez, Bhaskar Mukherjee, Prakash Sharma, Arijeet Pal, Hitesh J. Changlani(参考訳) 孤立系における熱化とその崩壊は、非平衡量子状態とその初期状態への依存をより深く理解した。 これは量子スカーの存在によって顕著に強調され、基礎となる効果的なスーパースピン構造を持つ特別な熱水状態がカオス多体スペクトルに埋め込まれている。 スピン$XXZ$モデルとその一次元および高次元の変種は、正確な量子的傷を負い、合成および凝縮物質系において実現可能なスピンヘリックス状態の完全回復を示すことが示されている。 これらの進歩に動機づけられ,空間熱化プロファイルを探索するために,実験的にアクセス可能な局所的時間依存プロトコルを提案し,スーパースピンの運命に対するシステムの異なる部分の温熱化と影響を強調する。 強磁性(x$-polarized)の初期状態の異なるパラメトリックなレジームを、駆動スピンと残りのスピンとの相互作用に基づいて特定し、駆動スピンが効果的に分離し、他のスピンを加熱するのに役立つ「コールドスポット」のように振る舞う局所アサーマル挙動を含む。 数値観測を説明し,様々な実験で検証可能な予測を行う実空間図とフロッケ空間図を開発した。

Thermalization and its breakdown in isolated systems has led to a deeper understanding of non-equilibrium quantum states and their dependence on initial conditions. This is prominently highlighted by the existence of quantum scars, special athermal states with an underlying effective superspin structure, embedded in an otherwise chaotic many-body spectrum. Spin $XXZ$ models and their variants in one and higher dimension have been shown to host exact quantum scars, exhibiting perfect revivals of spin helix states that are realizable in synthetic and condensed matter systems. Motivated by these advances, we propose experimentally accessible local, time-dependent protocols to explore the spatial thermalization profile and highlight how different parts of the system thermalize and affect the fate of the superspin. We identify distinct parametric regimes for the ferromagnetic ($X$-polarized) initial state based on the interplay between the driven spin and the rest, including local athermal behavior where the driven spin effectively decouples, acting like a "cold" spot while being instrumental in heating up the other spins. We develop a real and Floquet space picture that explains our numerical observations, and make predictions that can be tested in various experimental setups.
翻訳日:2023-01-09 03:37:04 公開日:2022-12-28
# 古典的および量子的メルリン・アーサーオートマトン

Classical and quantum Merlin-Arthur automata ( http://arxiv.org/abs/2212.13801v1 )

ライセンス: Link先を確認
Abuzer Yakary{\i}lmaz(参考訳) 我々はMerlin-Arthur Automaticaを紹介し、Merlinは単一の証明書を提供し、入力を読む前にArthurによってスキャンされる。 本稿では,Merlin-Arthurによる決定論的,確率的,量子有限状態オートマトン(Resp.,MA-DFAs,MA-PFA,MA-QFAs)を定義し,MA-PFAsとMA-QFAs(resp.,MA-PostPFA,MA-PostQFAs)をポストセレクトする。 異なる証明書長を用いていくつかの結果を得る。 我々はMA-DFAが一定の長さの証明書を使用することを示す。 したがって、すべての正規言語と正規言語のみを認識できるが、指数関数と多項式状態はそれぞれ二進言語と一進言語よりも効率的である。 線形長証明書では、MA-PFAはカットポイント1/2を持ついくつかの非確率的ユニタリ言語を認識できる。 線形長証明では、MA-PostPFAは同じ非確率的な単言語を有界エラーで認識する。 任意に長い証明書で、有界エラーMA-PostPFAはすべての一意決定可能な言語を検証する。 サブ線形長証明書では、有界エラーMA-PostQFAはいくつかの非確率的ユニタリ言語を検証する。 線形長証明では、すべてのユニタリ言語とNP完全バイナリ言語を検証できる。 指数長証明書を使用すると、すべてのバイナリ言語を検証できる。

We introduce Merlin-Arthur (MA) automata as Merlin provides a single certificate and it is scanned by Arthur before reading the input. We define Merlin-Arthur deterministic, probabilistic, and quantum finite state automata (resp., MA-DFAs, MA-PFAs, MA-QFAs) and postselecting MA-PFAs and MA-QFAs (resp., MA-PostPFA and MA-PostQFA). We obtain several results using different certificate lengths. We show that MA-DFAs use constant length certificates, and they are equivalent to multi-entry DFAs. Thus, they recognize all and only regular languages but can be exponential and polynomial state efficient over binary and unary languages, respectively. With sublinear length certificates, MA-PFAs can recognize several nonstochastic unary languages with cutpoint 1/2. With linear length certificates, MA-PostPFAs recognize the same nonstochastic unary languages with bounded error. With arbitrarily long certificates, bounded-error MA-PostPFAs verify every unary decidable language. With sublinear length certificates, bounded-error MA-PostQFAs verify several nonstochastic unary languages. With linear length certificates, they can verify every unary language and some NP-complete binary languages. With exponential length certificates, they can verify every binary language.
翻訳日:2023-01-09 03:36:41 公開日:2022-12-28
# 確率的粒子生成:動的カシミール効果から宇宙論へ

Stochastic particle creation: from the dynamical Casimir effect to cosmology ( http://arxiv.org/abs/2212.13821v1 )

ライセンス: Link先を確認
Mat\'ias Manti\~nan, Francisco D. Mazzitelli and Leonardo G. Trombetta(参考訳) 本研究では,壁面のランダムな動きによって生じる空洞内の粒子生成を計算し,動的カシミール効果の確率バージョンについて検討する。 まず,運動の振幅に対する摂動計算を提示する。 確率的粒子生成と決定論的粒子生成を比較する。 次に、確率的パラメトリック共鳴を考慮に入れたマルチスケール分析の確率的バージョンを用いて、摂動的評価を超える。 確率運動によって引き起こされる異なるモード間のカップリングの関連性を強調した。 単モード近似では、方程式は宇宙論的な文脈で確率的粒子の生成を記述するものと正式に類似しており、多重スケール解析を用いて再帰する。

We study a stochastic version of the dynamical Casimir effect, computing the particle creation inside a cavity produced by a random motion of one of its walls. We first present a calculation perturbative in the amplitude of the motion. We compare the stochastic particle creation with the deterministic counterpart. Then we go beyond the perturbative evaluation using a stochastic version of the multiple scale analysis, that takes into account stochastic parametric resonance. We stress the relevance of the coupling between the different modes induced by the stochastic motion. In the single-mode approximation, the equations are formally analogous to those that describe the stochastic particle creation in a cosmological context, that we rederive using multiple scale analysis.
翻訳日:2023-01-09 03:36:19 公開日:2022-12-28
# ランダム回路の吸収状態相転移における絡み合いの制御

Controlling entanglement at absorbing state phase transitions in random circuits ( http://arxiv.org/abs/2212.13823v1 )

ライセンス: Link先を確認
Piotr Sierant, Xhek Turkeshi(参考訳) 繰り返し測定される多体ユニタリダイナミクスは、測定誘起相転移を特徴とする豊かな現象論を示す。 吸収状態に向かって動的を操るフィードバック制御操作を用いて,吸収状態相転移時の絡み合いエントロピー挙動について検討する。 短距離制御では、エンタングルメントエントロピーの異なる部分拡大スケールの位相間の遷移が観察される。 対照的に、このシステムは長距離フィードバック操作のためのボリュームロー位相とエリアロー位相の遷移を行う。 振れエントロピーのゆらぎと吸収状態遷移の秩序パラメータは、フィードバック操作を十分に強く絡み合うために完全に結合される。 その場合、絡み合いエントロピーは吸収状態遷移の普遍的なダイナミクスを継承する。 しかし、これは任意の制御操作の場合ではなく、2つの遷移は一般に異なる。 我々は,古典的フラグラベル付き安定化回路に基づく枠組みを導入することで,この結果を定量的に支援する。 その結果, 測定誘起相転移の可観測性に新たな光を当てた。

Many-body unitary dynamics interspersed with repeated measurements display a rich phenomenology hallmarked by measurement-induced phase transitions. Employing feedback-control operations that steer the dynamics toward an absorbing state, we study the entanglement entropy behavior at the absorbing state phase transition. For short-range control operations, we observe a transition between phases with distinct sub-extensive scalings of entanglement entropy. In contrast, the system undergoes a transition between volume-law and area-law phases for long-range feedback operations. The fluctuations of entanglement entropy and of the order parameter of the absorbing state transition are fully coupled for sufficiently strongly entangling feedback operations. In that case, entanglement entropy inherits the universal dynamics of the absorbing state transition. This is, however, not the case for arbitrary control operations, and the two transitions are generally distinct. We quantitatively support our results by introducing a framework based on stabilizer circuits with classical flag labels. Our results shed new light on the problem of observability of measurement-induced phase transitions.
翻訳日:2023-01-09 03:36:07 公開日:2022-12-28
# 一様磁場下での電子の基底および励起状態に対する第一量子固有溶媒

First-quantized eigensolver for ground and excited states of electrons under a uniform magnetic field ( http://arxiv.org/abs/2212.13800v1 )

ライセンス: Link先を確認
Taichi Kosugi, Hirofumi Nishi, Yu-ichiro Matsushita(参考訳) first-quantized eigensolver (fqe) は、確率的虚数時間発展に基づく相互作用電子系の基底状態を得るために最近提案された量子計算の枠組みである。 本研究では,FQE計算に一様磁場を導入する手法を提案する。 資源推定により、各電子に割り当てられた量子ビット数の観点から、磁場に責任を持つ追加回路をライナー深さで実装できることを示し、計算コスト全体のリードオーダーに何の影響も及ぼさないことを示した。 地中および励起状態の数値シミュレーションにより,エネルギー固有状態のフィルタ回路を用いて本手法の有効性を確認した。 また, 導関数回路の一般構成と, 測定に基づく公式も提供する。 特殊な場合として、電子系の電流密度を求め、磁気応答の微視的起源に関する洞察を得ることができる。

First-quantized eigensolver (FQE) is a recently proposed framework of quantum computation for obtaining the ground state of an interacting electronic system based on probabilistic imaginary-time evolution. In this study, we propose a method for introducing a uniform magnetic field to an FQE calculation. We demonstrate via resource estimation that the additional circuit responsible for the magnetic field can be implemented with a liner depth in terms of the number of qubits assigned to each electron, giving rise to no impact on the leading order of whole computational cost. We confirm the validity of our method via numerical simulations for ground and excited states by employing the filtration circuits for energy eigenstates. We also provide the generic construction of derivative circuits together with measurement-based formulae. As a special case of them, we can obtain the electric-current density in an electronic system to get insights into the microscopic origin of magnetic response.
翻訳日:2023-01-09 03:10:56 公開日:2022-12-28
# 量子資産の価格設定に関する基礎定理

Fundamental theorem for the pricing of quantum assets ( http://arxiv.org/abs/2212.13815v1 )

ライセンス: Link先を確認
Jinge Bao, Patrick Rebentrost(参考訳) 量子コンピュータは、量子推定を用いて金融における価格問題を解く可能性を秘めている。 より広い文脈において、市場と市場で取引された資産が量子資産を持つ場合、価格問題やその他の金融問題に何が起こるのかを問うのは合理的である。 本研究では,古典的確率ではなく,量子密度演算子によって市場が記述される金融環境を考える。 この設定は自然に、私たちが量子資産と呼ぶ新しい資産クラスにつながります。 このような資産には価格があり、取引できるという仮定のもと、我々はリスクを伴わずに利益を定量化するための仲裁の広範な定義を開発する。 我々の主な成果は、資産価格の最初の基本定理の量子バージョンである。 仲裁がなければ、すべての資産がマルティンガレであるようなリスクフリー密度演算子が存在する。 この密度演算子は、量子デリバティブの価格設定に使用される。 技術的には、Randon-Nikodym測度変化の密度演算子バージョンについて検討する。 その理論を説明する小さな例を挙げる。

Quantum computers have the potential to solve pricing problems in finance by the use of quantum estimation. In a broader context, it is reasonable to ask what happens to the pricing problem and other financial tasks if the market and the assets traded on the market themselves have quantum properties. In this work, we consider a financial setting where instead of by classical probabilities the market is described by a quantum density operator. This setting naturally leads to a new asset class, which we call quantum assets. Under the assumption that such assets have a price and can be traded, we develop an extended definition of arbitrage to quantify gains without the corresponding risk. Our main result is a quantum version of the first fundamental theorem of asset pricing. If and only if there is no arbitrage, there exists a risk-free density operator under which all assets are martingales. This density operator is used for the pricing of quantum derivatives. On the technical side, we study the density operator version of the Radon-Nikodym measure change. We provide small examples to illustrate the theory.
翻訳日:2023-01-09 03:10:41 公開日:2022-12-28
# 有向パーコレーション遷移に近い量子軌道の自明性

Triviality of quantum trajectories close to a directed percolation transition ( http://arxiv.org/abs/2212.14026v1 )

ライセンス: Link先を確認
Lorenzo Piroli, Yaodong Li, Romain Vasseur, Adam Nahum(参考訳) 単体ゲート、射影測定、制御操作からなる量子回路について検討し、純粋な吸収状態に向けてシステムを操る。 2種類の相転移は、これらの制御操作の速度が増加するにつれて起こる: 測定誘起絡み合い遷移と、直接パーコレーション遷移が吸収状態に遷移する(ここでは積状態とする)。 この研究で、これらの遷移は、吸収状態遷移に達する前に量子軌道が絡み合うようになり、総称的に異なることを示し、それらの臨界特性を解析する。 各量子軌道における測定値が実効テンソルネットワーク(非自明な時間進化が起こる初期時空グラフのサブグラフ)を定義する単純なモデルのクラスを導入する。 有効テンソルネットワークの絡み合い特性を解析することにより、エンタングルメントと吸収状態遷移は無限局所ヒルベルト空間次元の極限でのみ一致することを示した。 大規模システムサイズの数値シミュレーションを可能にするクリフォードモデルに焦点をあて、我々の予測を検証し、大きな局所ヒルベルト空間次元における2つの遷移の間の有限サイズ交叉について検討する。 エンタングルメント遷移はフィードバックのないハイブリッド回路と同じ固定点で制御されていることを示す。

We study quantum circuits consisting of unitary gates, projective measurements, and control operations that steer the system towards a pure absorbing state. Two types of phase transition occur as the rate of these control operations is increased: a measurement-induced entanglement transition, and a directed percolation transition into the absorbing state (taken here to be a product state). In this work we show that these transitions are generically distinct, with the quantum trajectories becoming disentangled before the absorbing state transition is reached, and we analyze their critical properties. We introduce a simple class of models where the measurements in each quantum trajectory define an effective tensor network -- a subgraph of the initial spacetime graph where nontrivial time evolution takes place. By analyzing the entanglement properties of the effective tensor network, we show that the entanglement and absorbing-state transitions coincide only in the limit of infinite local Hilbert-space dimension. Focusing on a Clifford model which allows numerical simulations for large system sizes, we verify our predictions and study the finite-size crossover between the two transitions at large local Hilbert space dimension. We give evidence that the entanglement transition is governed by the same fixed point as in hybrid circuits without feedback.
翻訳日:2023-01-09 03:10:26 公開日:2022-12-28
# Feynmanの$i\eta$述語を用いた非バイアス量子シミュレーションのためのコンパクトノイズ耐性アルゴリズム

A Compact Noise-Tolerant Algorithm for Unbiased Quantum Simulation Using Feynman's $i\eta$ Prescription ( http://arxiv.org/abs/2212.14039v1 )

ライセンス: Link先を確認
Woo-Ram Lee, Ryan Scott, V. W. Scarola(参考訳) 古典的なメモリ制限に対する量子シミュレーションの利点は、コンパクトな量子回路が難解な量子多体問題に対する洞察を得ることができることである。 しかし、量子時間進化とノイズにおける大きな回路深度の相互関係の障害は、近い将来に非バイアス量子シミュレーションを排除しているように見える。 Feynmanの$i\eta$は、量子時間進化に必要な回路深さを指数関数的に改善することを証明する。 本稿では,ハイブリッド古典量子アルゴリズムの構築に処方則を適用し,有用で観測可能なエネルギーギャップを推定する。 一般的なマルコフノイズチャネルに対するアルゴリズムの許容性を証明する。 我々は、IBMQデバイスと関連するノイズモデルを用いて、横フィールドIsingモデルの非バイアス有限サイズスケーリングを実行するアルゴリズムの成功と限界を実証する。 この結果から,非マルコフノイズを許容範囲以下に抑えるマシンにおいて,非バイアス量子ギャップ推定のステージを設定した。

Quantum simulation advantage over classical memory limitations would allow compact quantum circuits to yield insight into intractable quantum many-body problems. But the interrelated obstacles of large circuit depth in quantum time evolution and noise seem to rule out unbiased quantum simulation in the near term. We prove that Feynman's $i\eta$ prescription exponentially improves the circuit depth needed for quantum time evolution. We apply the prescription to the construction of a hybrid classical/quantum algorithm to estimate a useful observable, energy gap. We prove the algorithm's tolerance to all common Markovian noise channels. We demonstrate the success and limitations of the algorithm by using it to perform unbiased finite-size scaling of the transverse field Ising model using an IBMQ device and related noise models. Our findings set the stage for unbiased quantum gap estimation on machines where non-Markovian noise is kept below tolerances.
翻訳日:2023-01-09 03:10:06 公開日:2022-12-28
# ローレンツ対称性の量子参照系

Quantum Reference Frames for Lorentz Symmetry ( http://arxiv.org/abs/2212.14081v1 )

ライセンス: Link先を確認
Luca Apadula, Esteban Castro-Ruiz and \v{C}aslav Brukner(参考訳) 最初の導入以来、量子参照フレーム(QRF)変換は広く議論され、量子領域への物理法則の共分散を一般化している。 重要な進歩にもかかわらず、ローレンツ対称性に対するQRF変換の定式化はいまだに欠けている。 このギャップを埋めることを目的としている。 まず、任意の好ましい時間的スライシングの概念に依存しない相対論的量子力学の再構成を導入する。 これに基づいて、異なる相対論的QRFの視点を切り替える変換を定義する。 我々は、量子粒子の外部自由度に作用する「量子ローレンツ変換」と「ローレンツブーストの重ね合わせ」の概念を導入する。 時間拡張の重ね合わせと長さ収縮の重ね合わせという2つの効果は、参照フレームが相対論的特徴と量子力学的特徴の両方を示す場合にのみ生じる。 最後に、相対論的QRFから波束拡張を測定することで、その効果がどのように観測できるかについて議論する。

Since their first introduction, Quantum Reference Frame (QRF) transformations have been extensively discussed, generalising the covariance of physical laws to the quantum domain. Despite important progress, a formulation of QRF transformations for Lorentz symmetry is still lacking. The present work aims to fill this gap. We first introduce a reformulation of relativistic quantum mechanics independent of any notion of preferred temporal slicing. Based on this, we define transformations that switch between the perspectives of different relativistic QRFs. We introduce a notion of ''quantum Lorentz transformations'' and ''superposition of Lorentz boosts'', acting on the external degrees of freedom of a quantum particle. We analyse two effects, superposition of time dilations and superposition of length contractions, that arise only if the reference frames exhibit both relativistic and quantum-mechanical features. Finally, we discuss how the effects could be observed by measuring the wave-packet extensions from relativistic QRFs.
翻訳日:2023-01-09 03:09:51 公開日:2022-12-28
# 非エルミートブレイディングに由来するエルミートトポロジー

Hermitian Topologies originating from non-Hermitian braidings ( http://arxiv.org/abs/2212.13736v1 )

ライセンス: Link先を確認
W. B. Rui, Y. X. Zhao, Z. D. Wang(参考訳) 非エルミート系の複素エネルギー帯は1次元においても運動量空間に分岐する。 ここでは、非エルミートブレイディングが、エルミート系と非エルミート系を統一する一般的な枠組みの下で、カイラル対称性を持つエルミート位相物理学の下にあることを明らかにした。 特に、非エルミート帯域をブレイディングする結び目とゼロエネルギーループの間の連結数と1次元のカイラル対称位相の位相不変量とを同一視するエレガントなアイデンティティを導出する。 さらに、非エルミートブレイディングの異なる結び目構造を変換する臨界点から生じる相転移のエキゾチックなクラスを見出し、従来のエルミート位相相転移理論には含まれていない。 それにもかかわらず、バルク非エルミートブレイディングとエルミート位相絶縁体の境界ゼロモードの間のバルク境界対応を示す。 最後に, 人工結晶で容易に実現可能な非エルミートブレイディングを用いた典型的な位相相を構築する。

The complex energy bands of non-Hermitian systems braid in momentum space even in one dimension. Here, we reveal that the non-Hermitian braiding underlies the Hermitian topological physics with chiral symmetry under a general framework that unifies Hermitian and non-Hermitian systems. Particularly, we derive an elegant identity that equates the linking number between the knots of braiding non-Hermitian bands and the zero-energy loop to the topological invariant of chiral-symmetric topological phases in one dimension. Moreover, we find an exotic class of phase transitions arising from the critical point transforming different knot structures of the non-Hermitian braiding, which are not included in the conventional Hermitian topological phase transition theory. Nevertheless, we show the bulk-boundary correspondence between the bulk non-Hermitian braiding and boundary zero-modes of the Hermitian topological insulators. Finally, we construct typical topological phases with non-Hermitian braidings, which can be readily realized by artificial crystals.
翻訳日:2023-01-09 03:00:01 公開日:2022-12-28
# ヤコビコヒーレント状態に対するクリロフ複素性

Krylov Complexity for Jacobi Coherent States ( http://arxiv.org/abs/2212.13758v1 )

ライセンス: Link先を確認
S. Shajidul Haque, Jeff Murugan, Mpho Tladi, Hendrik J.R. Van Zyl(参考訳) 我々は、これまでの文献で考慮された単純なハミルトン系を超えて、クリロフ複雑性の応用を拡張するために必要な計算ツールを開発する。 このより広い目標に向けた第一歩として、クリロフ基底を反復的に生成するランツォスアルゴリズムが、ヤコビ群、三次元実ハイゼンベルク・ワイル群の半直積である$H_{1}$、シンプレクティック群 $Sp(2,\mathbb{R})\simeq SU(1,1)$ に関連するコヒーレントな状態を扱うためにどのように拡張できるかを示す。 このようなコヒーレント状態は、例えば量子光学における圧縮状態として物理的に実現される。 クリロフ基底は、$su(1,1) とハイゼンベルク-ワイル群の両方がよく理解されているので、その半直積も部分的に解析的に解析可能である。 我々はこれを、より一般的なヤコビ群 $H_{n}\rtimes Sp(2n,\mathbb{R})$ に一般化するランツォス係数を数値的に計算するスキームのベンチマークに利用する。

We develop computational tools necessary to extend the application of Krylov complexity beyond the simple Hamiltonian systems considered thus far in the literature. As a first step toward this broader goal, we show how the Lanczos algorithm that iteratively generates the Krylov basis can be augmented to treat coherent states associated with the Jacobi group, the semi-direct product of the 3-dimensional real Heisenberg-Weyl group $H_{1}$, and the symplectic group, $Sp(2,\mathbb{R})\simeq SU(1,1)$. Such coherent states are physically realized as squeezed states in, for example, quantum optics. With the Krylov basis for both the $SU(1,1)$ and Heisenberg-Weyl groups being well understood, their semi-direct product is also partially analytically tractable. We exploit this to benchmark a scheme to numerically compute the Lanczos coefficients which, in principle, generalizes to the more general Jacobi group $H_{n}\rtimes Sp(2n,\mathbb{R})$.
翻訳日:2023-01-09 02:59:34 公開日:2022-12-28
# 認知アーキテクチャにおける感情--人間の感情との相互作用からの創発的特性

Emotion in Cognitive Architecture: Emergent Properties from Interactions with Human Emotion ( http://arxiv.org/abs/2301.00003v1 )

ライセンス: Link先を確認
Junya Morita(参考訳) この文書は、計算認知アーキテクチャにおける感情を表現するための取り組みを示す。 第1部では,感情的感情の軸である快感と覚醒の2つの研究について紹介する。 この感情的要素の基本に従えば、この文書は感情の創発的特性の側面を論じ、人間のユーザとのインタラクション研究を示す。 これらの過去の著者の研究により、認知的人間-エージェント相互作用アプローチの利点は、人間の内的状態とプロセスを表現することであると結論付けている。

This document presents endeavors to represent emotion in a computational cognitive architecture. The first part introduces research organizing with two axes of emotional affect: pleasantness and arousal. Following this basic of emotional components, the document discusses an aspect of emergent properties of emotion, showing interaction studies with human users. With these past author's studies, the document concludes that the advantage of the cognitive human-agent interaction approach is in representing human internal states and processes.
翻訳日:2023-01-09 02:41:53 公開日:2022-12-28
# 検出・未検出光によるモード構造再構成

Mode structure reconstruction by detected and undetected light ( http://arxiv.org/abs/2212.13873v1 )

ライセンス: Link先を確認
Laura T. Knoll, Giulia Petrini, Fabrizio Piacentini, Paolo Traina, Sergey V. Polyakov, Ekaterina Moreva, Ivo Pietro Degiovanni, Marco Genovese(参考訳) 本稿では,一般化されたグラウバーの $k^{th}$-order correlation function $g^{(k)}$ と最近提案された反相関関数 ($\theta^{(k)}$) の両方を同時に利用し,ポアソニアンノイズに耐性を持つマルチモード光学場を再構成する新しい手法を提案する。 本手法は,$g^{(k)$'sのみに基づく再構成法に比べて,より忠実度の高いモード再構成を実現することを実験的に証明した。 この手法の信頼性と汎用性は、量子情報から量子計測まで、特に背景雑音の存在下で単一光子エミッタのアンサンブルを特徴付ける必要がある場合(例えば、残留励起レーザー、成層光、望ましくない蛍光など)、光学的量子測定の実際の応用において広く使われるのに適している。

We introduce a novel technique for the reconstruction of multimode optical fields, based on simultaneously exploiting both the generalized Glauber's $K^{th}$-order correlation function $g^{(K)}$ and a recently proposed anti-correlation function (dubbed $\theta^{(K)}$) which is resilient to Poissonian noise. We experimentally demonstrate that this method yields mode reconstructions with higher fidelity with respect to those obtained with reconstruction methods based only on $g^{(K)}$'s, even requiring less "a priori" information. The reliability and versatility of our technique make it suitable for a widespread use in real applications of optical quantum measurement, from quantum information to quantum metrology, especially when one needs to characterize ensembles of single-photon emitters in the presence of background noise (due, for example, to residual excitation laser, stray light, or unwanted fluorescence).
翻訳日:2023-01-09 02:16:26 公開日:2022-12-28
# GroverとHarrow-Hassidim-Lloydアルゴリズムのコヒーレンスと絡み合い

Coherence and entanglement in Grover and Harrow-Hassidim-Lloyd algorithm ( http://arxiv.org/abs/2212.13938v1 )

ライセンス: Link先を確認
Changchun Feng and Lin Chen and Lijun Zhao(参考訳) エンタングルメントのコヒーレンス、不協和、幾何学的測定は、物理的資源を測定するための重要なツールである。 それらをGroverのアルゴリズムのすべてのステップで計算する。 これらのリソースの変化パターンを要約します。 これらのリソースはステップoracleで小さくなり、ステップディフューザで大きくなり、あるいは不変になっています。 この結果はグローバーのアルゴリズムにおける絡み合いのパターンに似ている。 さらに,Harrow-Hassidim-LloydアルゴリズムのすべてのステップでGMを計算する。

Coherence, discord and geometric measure of entanglement are important tools for measuring physical resources. We compute them at every steps of the Grover's algorithm. We summarize these resources's patterns of change. These resources are getting smaller at the step oracle and are getting bigger or invariant at the step diffuser. This result is similar to the entanglement's pattern of change in Grover's algorithm. Furthermore, we compute GM at every steps of the Harrow-Hassidim-Lloyd algorithm.
翻訳日:2023-01-09 02:15:47 公開日:2022-12-28
# schrodingerizationによる偏微分方程式の量子シミュレーション

Quantum simulation of partial differential equations via Schrodingerisation ( http://arxiv.org/abs/2212.13969v1 )

ライセンス: Link先を確認
Shi Jin, Nana Liu and Yue Yu(参考訳) 量子シミュレーションにより一般線形偏微分方程式をシミュレートする、シュロディンジェライゼーションと呼ばれる単純な新しい方法を提案する。 ワープ位相変換と呼ばれる単純な新しい変換を用いることで、任意の線型偏微分方程式をシュロディンガー方程式の系(リアルタイム)に、直接的に再キャストすることができる。 これはより洗練された手法を使わずに、力学方程式のレベルで直接見ることができる。 このアプローチは古典的問題に対するPDEだけでなく、量子基底状態の生成、ギブス状態、半古典的極限におけるランダムメディアにおける量子状態のシミュレーションなど、量子問題にも適用できる。

We present a simple new way - called Schrodingerisation - to simulate general linear partial differential equations via quantum simulation. Using a simple new transform, referred to as the warped phase transformation, any linear partial differential equation can be recast into a system of Schrodinger's equations - in real time - in a straightforward way. This can be seen directly on the level of the dynamical equations without more sophisticated methods. This approach is not only applicable to PDEs for classical problems but also those for quantum problems - like the preparation of quantum ground states, Gibbs states and the simulation of quantum states in random media in the semiclassical limit.
翻訳日:2023-01-09 02:15:40 公開日:2022-12-28
# adiabatic quantum annealingはなぜスピードアップしないのか

Why adiabatic quantum annealing is unlikely to yield speed-up ( http://arxiv.org/abs/2212.13649v1 )

ライセンス: Link先を確認
Aar\'on Villanueva, Peyman Najafi, Hilbert J. Kappen(参考訳) h = z h_f + h_0$ ここで$h_f$ は対角的、$h_0=-|\phi \rangle \langle \phi|$ は等しい重ね合わせ状態プロジェクタであり、$z$ はアニーリングパラメータである。 解析的に最小のスペクトルギャップを$\mathcal{o}(1/\sqrt{n})$と計算し、n$ the total of states and its location $z_*$ と計算する。 量子速度アップには、最適化問題の状態密度が分かっている場合にのみ計算可能な$z_*$の正確な知識を必要とするアニーリングスケジュールが必要であることを示す。 しかし、一般に状態の密度は計算が困難であり、実用的な組合せ最適化問題では二次的なスピードアップは不可能である。 我々は、この負の結果が$h_0 = -\sum_{i=1}^n \sigma_i^x$のような任意のインスタンス独立な逆ハミルトニアンにも適用される可能性が高いと推測する。

We study quantum annealing for combinatorial optimization with Hamiltonian $H = z H_f + H_0$ where $H_f$ is diagonal, $H_0=-|\phi \rangle \langle \phi|$ is the equal superposition state projector and $z$ the annealing parameter. We analytically compute the minimal spectral gap as $\mathcal{O}(1/\sqrt{N})$ with $N$ the total number of states and its location $z_*$. We show that quantum speed-up requires an annealing schedule which demands a precise knowledge of $z_*$, which can be computed only if the density of states of the optimization problem is known. However, in general the density of states is intractable to compute, making quadratic speed-up unfeasible for any practical combinatoric optimization problems. We conjecture that it is likely that this negative result also applies for any other instance independent transverse Hamiltonians such as $H_0 = -\sum_{i=1}^n \sigma_i^x$.
翻訳日:2023-01-09 02:07:22 公開日:2022-12-28
# ファイバーベースの光子対生成:チュートリアル

Fiber-based photon pair generation: a tutorial ( http://arxiv.org/abs/2212.13652v1 )

ライセンス: Link先を確認
Karina Garay-Palmett, Dong Beom Kim, Yujie Zhang, Francisco A. Dom\'inguez-Serna, Virginia O.Lorenz, Alfred B. U'Ren(参考訳) 本論文の目的は,光ファイバーの自発4波混合(SFWM)プロセスによる光子対生成の概要を明らかにすることである。 光ファイバ技術の進歩は、現在、様々な種類の繊維が処分されていることを意味しており、SFWMが2つのポンプ場を使っているという事実と合わせて、光子対の性質の真に優れた汎用性を示している。 本研究では, 周波数, 横モード, 偏光度が相互に相互作用し, 後者の2つがファイバー分散により結合し, 個々の自由度において興味深い絡み合い特性をもたらすか, 自由度の組み合わせでハイブリッドおよびハイパー絡み合いを許容するかについて議論した。 本チュートリアルでは,光子対分解性,周波数可変性,sfwm帯域制御,周波数非縮退ポンプおよび逆伝播ポンプの効果,および光ファイバに発生する光子対を特徴付ける手法について紹介する。

The purpose of this tutorial paper is to present a broad overview of photon-pair generation through the spontaneous four wave mixing (SFWM) process in optical fibers. Progress in optical fiber technology means that today we have at our disposal a wide variety of types of fiber, which together with the fact that SFWM uses two pump fields, implies a truly remarkable versatility in the resulting possible photon-pair properties. We discuss how the interplay of the frequency, transverse mode, and polarization degrees of freedom, the first linked to the latter two through fiber dispersion, leads to interesting entanglement properties both in individual degrees of freedom and also permitting hybrid and hyper entanglement in combinations of degrees of freedom. This tutorial covers methods for photon pair factorability, frequency tunability, and SFWM bandwidth control, the effect of frequency non-degenerate and counter-propagating pumps, as well methods for characterizing photon pairs generated in optical fibers.
翻訳日:2023-01-09 02:06:59 公開日:2022-12-28
# チューナブル有効結合を持つKerrパラメトリック発振器の相関振動

Correlated oscillations in Kerr parametric oscillators with tunable effective coupling ( http://arxiv.org/abs/2212.13682v1 )

ライセンス: Link先を確認
T. Yamaji and S. Masuda and A. Yamaguchi and T. Satoh and A. Morioka and Y. Igarashi and M. Shirane and T. Yamamoto(参考訳) 単一光子kerrレジームにおける2つの分散回路ジョセフソンパラメトリック発振器からなる系の同時パラメトリック振動を静電容量で結合した。 系のエネルギーは、振幅と符号がパラメトリックポンプ間の相対位相に依存する効果的なカップリングを持つ2ビットイジングハミルトニアンによって記述される。 パラメトリック振動の2相相は相互に相関し, ポンプ位相を調整することで相関のパリティと強度を制御できることを実証した。 観測された相関は, 純粋な強調を考慮したシミュレーションで再現される。 本研究では,kpoネットワークを構成するイジングマシンのハードウェアにおいて,外部マイクロ波の位相によるハミルトニアンパラメータの可変性を示す。

We study simultaneous parametric oscillations in a system composed of two distributed-element-circuit Josephson parametric oscillators in the single-photon Kerr regime coupled via a static capacitance. The energy of the system is described by a two-bit Ising Hamiltonian with an effective coupling whose amplitude and sign depend on the relative phase between parametric pumps. We demonstrate that the binary phases of the parametric oscillations are correlated with each other, and that the parity and strength of the correlation can be controlled by adjusting the pump phase. The observed correlation is reproduced in our simulation taking pure dephasing into account. The present result demonstrates the tunability of the Hamiltonian parameters by the phase of external microwave, which can be used in the the Ising machine hardware composed of the KPO network.
翻訳日:2023-01-09 02:06:41 公開日:2022-12-28
# 変動アルゴリズムを用いた時間力学からのハミルトン学習

Hamiltonian learning from time dynamics using variational algorithms ( http://arxiv.org/abs/2212.13702v1 )

ライセンス: Link先を確認
Rishabh Gupta, Raja Selvarajan, Manas Sajjan, Raphael D. Levine and Sabre Kais(参考訳) 量子系のハミルトニアンはシュロディンガー方程式を通じて系の力学を支配している。 本稿では,時系列データセットを形成する乱数状態の計測器を用いて,パウリベースでハミルトニアンを再構成する。 時間伝達はトロタライズによって実現され、量子回路上で計算された勾配と共に変動的に最適化される。 最適化に使用しないランダムに選択された状態において、目に見えない観測値のダイナミクスを再現することにより、出力を検証する。 ハミルトニアンの構造やプロパティを活用しようとする既存の手法とは異なり、我々のスキームは一般的であり、実装に関して効率を保ちながら観測可能な状態や初期状態について自由を提供する。 このプロトコルを量子状態学習に拡張し、いくつかのハミルトン力学に対して生成された観測可能時間の時系列データから状態学習を行う逆問題を解く。 本稿では, XX, ZZ結合を含むハミルトニアンについて, 横場イジング・ハミルトニアンとともに, SU(3) 群の生成元からなるハミルトニアンを学習するための解析手法を提案する。 本論文は,量子機械学習アルゴリズムの文脈内での時系列予測にハミルトン学習を用いるための道を開く可能性が高い。

The Hamiltonian of a quantum system governs the dynamics of the system via the Schrodinger equation. In this paper, the Hamiltonian is reconstructed in the Pauli basis using measurables on random states forming a time series dataset. The time propagation is implemented through Trotterization and optimized variationally with gradients computed on the quantum circuit. We validate our output by reproducing the dynamics of unseen observables on a randomly chosen state not used for the optimization. Unlike the existing techniques that try and exploit the structure/properties of the Hamiltonian, our scheme is general and provides freedom with regard to what observables or initial states can be used while still remaining efficient with regard to implementation. We extend our protocol to doing quantum state learning where we solve the reverse problem of doing state learning given time series data of observables generated against several Hamiltonian dynamics. We show results on Hamiltonians involving XX, ZZ couplings along with transverse field Ising Hamiltonians and propose an analytical method for the learning of Hamiltonians consisting of generators of the SU(3) group. This paper is likely to pave the way toward using Hamiltonian learning for time series prediction within the context of quantum machine learning algorithms.
翻訳日:2023-01-09 02:06:30 公開日:2022-12-28
# 効率的で堅牢な量子降下によるハミルトン学習

Supervised Hamiltonian learning via efficient and robust quantum descent ( http://arxiv.org/abs/2212.13718v1 )

ライセンス: Link先を確認
Tian-Lun Zhao, Shi-Xin Hu and Yi Zhang(参考訳) 近年の量子技術の発展を考えると、ターゲット量子多体系の物理的ハミルトニアンのモデル化は、ますます実用的で不可欠な研究の方向性になりつつある。 本稿では,最大公約状態と教師付き機械学習を混合した効率的な量子戦略を提案する。 測定結果から、ターゲットモデルハミルトンおよび密度演算子を一連の量子降下により最適化し、負のlog-like-hood関数に対して負の半定値であることが証明される。 このような最適化効率に加えて、監督ハミルトニアン学習は与えられた量子システムの局所性を尊重するので、より大きな系に容易に拡張できる。 従来の手法と比較すると,ノイズ,ゆらぎ,温度範囲に対する精度と全体的な安定性が示され,様々な例で示される。

Given the recent developments in quantum techniques, modeling the physical Hamiltonian of a target quantum many-body system is becoming an increasingly practical and vital research direction. Here, we propose an efficient quantum strategy that mingles maximum-likelihood-estimate state and supervised machine learning. Given the measurement outcomes, we optimize the target model Hamiltonian and density operator via a series of quantum descent, which we prove is negative semi-definite with respect to the negative-log-likelihood function. In addition to such optimization efficiency, supervised Hamiltonian learning respects the locality of a given quantum system, therefore, extends readily to larger systems. Compared with previous approaches, it also exhibits better accuracy and overall stability toward noises, fluctuations, and temperature ranges, which we demonstrate with various examples.
翻訳日:2023-01-09 02:06:08 公開日:2022-12-28
# 差分信号増幅による量子コヒーレンスフリー精密計測

Quantum-coherence-free precision metrology by means of difference-signal amplification ( http://arxiv.org/abs/2212.13729v1 )

ライセンス: Link先を確認
Jialin Li, Yazhi Niu, Xinyi Wang, Lupei Qin and Xin-Qi Li(参考訳) 新たな弱値増幅法(WVA)は、前選択状態と後選択状態の間の破壊干渉の量子的性質に深く根ざしている。 また、JWVA(Joint WVA)と呼ばれる別のバージョンでは、選択後に受理され、拒否された結果との差符号を用いて、いくつかの技術的制限(例えば、誤修正エラー)の下でより優れた感度(桁違い2桁)を達成することが可能である。 本研究では、量子コヒーレンスを消去した後、JWVAの古典的対応として機能する差信号増幅(DSA)技術を分析し、同様の増幅効果が得られることを示す。 増幅信号の簡易な表現を求め、精度の評価を行い、最適作業条件を指摘する。 また,古典的混合状態のポスト選択の実装方法について述べる。 提案した古典的DSA技術は、JWVAの同様の技術的利点を持ち、実際に興味深い応用を見出すことができる。

The novel weak-value-amplification (WVA) scheme of precision metrology is deeply rooted in the quantum nature of destructive interference between the pre- and post-selection states. And, an alternative version, termed as joint WVA (JWVA), which employs the difference-signal from the post-selection accepted and rejected results, has been found possible to achieve even better sensitivity (two orders of magnitude higher) under some technical limitations (e.g. misalignment errors). In this work, after erasing the quantum coherence, we analyze the difference-signal amplification (DSA) technique, which serves as a classical counterpart of the JWVA, and show that similar amplification effect can be achieved. We obtain a simple expression for the amplified signal, carry out characterization of precision, and point out the optimal working regime. We also discuss how to implement the post-selection of a classical mixed state. The proposed classical DSA technique holds similar technical advantages of the JWVA and may find interesting applications in practice.
翻訳日:2023-01-09 02:05:55 公開日:2022-12-28
# 超伝導カプラアーキテクチャにおける量子チップ設計の自動化

Quantum Chip Design Automation in Superconducting Coupler Architecture ( http://arxiv.org/abs/2212.13751v1 )

ライセンス: Link先を確認
Fei-Yu Li and Li-Jing Jin(参考訳) 超伝導カプラアーキテクチャは、スケーラブルで高性能な量子プロセッサにとって大きな可能性を示すが、レイアウトの観点から、効率的にかつ自動的に「Qubit-Coupler-Qubit (QCQ)」を設計する方法はいまだ不明である。 本研究では,QCQアーキテクチャの最適レイアウト設計について初めて検討し,3つの重要な知見を得た。 まず,レイアウトの幾何学的設計にのみ依存する重要なゼロカップリング条件を得る。 第二に、量子ビット間の有効結合の上限は、$0.187~ \omega_q/\beta_s^2$と判定され、意外なことにそれは、レイアウトの代わりにキュービット周波数$\omega_q$とキュービットカップラー分散率$\beta_s$にのみ依存する。 第3に,レイアウト設計の効率化と高忠実度2ビットゲートの実現に欠かせない,超上界に到達するための最適レイアウト設計手法を提案し,実証する。 我々の研究は量子チップ設計の自動化に重要な一歩を踏み出した。

Superconducting coupler architecture demonstrates great potential for scalable and high-performance quantum processors, yet how to design efficiently and automatically "Qubit-Coupler-Qubit (QCQ)" from the layout perspective remains obscure. In this work, the optimal layout design for QCQ architecture is studied for the first time and we come up with three key findings. Firstly, we acquire the crucial zero-coupling condition that is only dependent on the geometric design of the layout. Secondly, the upper bound of the effective coupling between qubits is found out as $0.187~ \omega_q/\beta_s^2$, and surprisingly it only depends on the qubit frequency $\omega_q$ and the qubit-coupler dispersive rate $\beta_s$ instead of the layout. Thirdly, we propose and demonstrate an efficient optimal layout design procedure to reach the very upper bound, which is critical to the efficiency of layout design and the realization of high-fidelity two-qubit gates. Our work takes an important step forward to superconducting quantum chip design automation.
翻訳日:2023-01-09 02:05:38 公開日:2022-12-28
# 量子振幅増幅を組み合わせた確率的想像時間進化法の高速化

Acceleration of probabilistic imaginary-time evolution method combined with quantum amplitude amplification ( http://arxiv.org/abs/2212.13816v1 )

ライセンス: Link先を確認
Hirofumi Nishi, Taichi Kosugi, Yusuke Nishiya, Yu-ichiro Matsushita(参考訳) 量子コンピュータ上で基底状態を得るための非変分法として,確率的想像時間進化法(PITE)を提案した。 この形式論において、初期状態に作用する全ての虚時発展作用素を得る成功確率は、虚時が進むにつれて減少する。 望ましくない性質を緩和するため, PITEの量子振幅増幅(QAA)法と組み合わせた量子回路を提案する。 プリアンプリフィケーション演算子を導入することにより、QAAと組み合わせた回路の回路深さを低減する。 PITEとQAAの組み合わせが効果的に機能することを実証し、量子加速が達成された事例を報告した。 さらに,PITEのパラメータを最適化することにより,QAA操作数を削減し,PITEの確率的性質を回避するための決定論的想像時間進化(決定論的ITE)を実現することができることがわかった。 決定論的 ite 手順を複数の仮想時間ステップに適用し,回路の計算コストについて検討した。 最後に、PITE回路とQAAを組み合わせた第1および第2量子化ハミルトニアンの数値結果を示す。

A probabilistic imaginary-time evolution (PITE) method was proposed as a nonvariational method to obtain a ground state on a quantum computer. In this formalism, the success probability of obtaining all imaginary-time evolution operators acting on the initial state decreases as the imaginary time proceeds. To alleviate the undesirable nature, we propose quantum circuits for PITE combined with the quantum amplitude amplification (QAA) method. We reduce the circuit depth in the combined circuit with QAA by introducing a pre-amplification operator. We successfully demonstrated that the combination of PITE and QAA works efficiently and reported a case in which the quantum acceleration is achieved. Additionally, we have found that by optimizing a parameter of PITE, we can reduce the number of QAA operations and that deterministic imaginary-time evolution (deterministic ITE) can be achieved which avoids the probabilistic nature of PITE. We applied the deterministic ITE procedure to multiple imaginary-time steps and discussed the computational cost for the circuits. Finally, as an example, we demonstrate the numerical results of the PITE circuit combined with QAA in the first- and second-quantized Hamiltonians.
翻訳日:2023-01-09 02:05:16 公開日:2022-12-28
# 量子状態準備アルゴリズムによるノイズ量子チャネルのシミュレーション

Simulating noisy quantum channels via quantum state preparation algorithms ( http://arxiv.org/abs/2212.13834v1 )

ライセンス: Link先を確認
Marcelo S. Zanetti, Douglas F. Pinto, Marcos L. W. Basso, Jonas Maziero(参考訳) refsで。 [Phys. Rev. A 96, 062303 (2017)]および[Sci. China Phys. Mech. Astron. 61, 70311 (2018)]は、回路ベースの量子コンピュータ、一般量子チャネル(QC)でシミュレーションを行うアルゴリズムを報告した。 しかし、それらのアルゴリズムの応用は、シミュレーションのために実装される量子回路を得るために、方程式の複雑な非線形系の解を含む。 本研究では,量子状態生成アルゴリズムを用いて,任意の$d$レベルの量子システム上でQCのシミュレーションを実装するための簡単な方法を特定し,議論する。 我々は、最もよく知られた量子ビットqc、いくつかのqudit qcs、およびスピン状態に対するローレンツ変換の影響を考慮して、プロトコルの単純さと汎用性を示す。 また、初期混合状態に対するプロトコルの適用についても検討する。 与えられたアプリケーションの例のほとんどは、IBMの量子プロセッサを使って実験的に検証されている。

In Refs. [Phys. Rev. A 96, 062303 (2017)] and [Sci. China Phys. Mech. Astron. 61, 70311 (2018)], the authors reported an algorithm to simulate, in a circuit-based quantum computer, a general quantum channel (QC). However, the application of their algorithm involves the solution of intricate non-linear systems of equations in order to obtain the quantum circuit to be implemented for the simulation. In this work, we identify and discuss a simple way to implement the simulation of QCs on any $d$-level quantum system through quantum state preparation algorithms. We exemplify the simplicity and versatility of our protocol considering most well known qubit QCs, some qudit QCs, and the effect of Lorentz transformations on spin states. We also deal with the application of our protocol for initial mixed states. Most of the given application examples are verified experimentally using IBM's quantum processors.
翻訳日:2023-01-09 02:04:58 公開日:2022-12-28
# 密度演算子を用いたベイズ統計学習

Bayesian statistical learning using density operators ( http://arxiv.org/abs/2212.14715v1 )

ライセンス: Link先を確認
Yann Berquin(参考訳) この短い研究は、量子力学の枠組みを用いて統計ベイズ学習問題を再構成する。 サンプル波動関数の純粋状態のアンサンブルを表す密度演算子は、位置確率密度に使用される。 このような表現はサンプル空間上の異なる座標系において統計ベイズ学習問題を定式化できることを示した。 さらに,そのような表現は,カーネルトリックを用いて密度作用素の射影を学習できることを示す。 特に、この研究は、確率密度よりも波動関数の分解が、カーネルの埋め込みにおいて行われるように、確率作用素の性質を維持できることを示した。 結果は密度作用素の離散直交ウェーブレット変換を用いた簡単な例で示される。

This short study reformulates the statistical Bayesian learning problem using a quantum mechanics framework. Density operators representing ensembles of pure states of sample wave functions are used in place probability densities. We show that such representation allows to formulate the statistical Bayesian learning problem in different coordinate systems on the sample space. We further show that such representation allows to learn projections of density operators using a kernel trick. In particular, the study highlights that decomposing wave functions rather than probability densities, as it is done in kernel embedding, allows to preserve the nature of probability operators. Results are illustrated with a simple example using discrete orthogonal wavelet transform of density operators.
翻訳日:2023-01-02 17:55:41 公開日:2022-12-28
# オプション価格設定のための量子インスパイアテンソルニューラルネットワーク

Quantum-Inspired Tensor Neural Networks for Option Pricing ( http://arxiv.org/abs/2212.14076v1 )

ライセンス: Link先を確認
Raj G. Patel, Chia-Wei Hsing, Serkan Sahin, Samuel Palmer, Saeed S. Jahromi, Shivam Sharma, Tomas Dominguez, Kris Tziritas, Christophe Michel, Vincent Porte, Mustafa Abid, Stephane Aubert, Pierre Castellani, Samuel Mugel, Roman Orus(参考訳) 近年の深層学習の進歩により,高次元の問題を解くことで,次元性の呪い(COD)に対処することが可能になった。 このようなCODに対処する手法のサブセットは、高次元PDEの解決に繋がった。 これにより、数学のファイナンスから産業応用の確率的制御まで、様々な現実世界の問題への扉が開いた。 実現可能ではあるが、これらの深層学習方法は、トレーニング時間と記憶によって制限されている。 これらの欠点に対処するため、TNN(Tensor Neural Networks)は、従来のDNN(Dense Neural Network)と同等の精度を達成しながら、重要なパラメータの節約を提供できることを示した。 さらに,同じ精度でTNNをDNNよりも高速に訓練できることを示す。 また、TNNの他に、等価パラメータ数に対してDNNと比較してより小さな分散でより高速な収束をもたらす重み初期化スキームであるTensor Network Initializer (TNN Init)を導入している。 金融価格理論において広く用いられているヘストンモデルに関連した放物型pdeの解法にtnnとtnn initを応用して,tnnとtnn initのベンチマークを行った。

Recent advances in deep learning have enabled us to address the curse of dimensionality (COD) by solving problems in higher dimensions. A subset of such approaches of addressing the COD has led us to solving high-dimensional PDEs. This has resulted in opening doors to solving a variety of real-world problems ranging from mathematical finance to stochastic control for industrial applications. Although feasible, these deep learning methods are still constrained by training time and memory. Tackling these shortcomings, Tensor Neural Networks (TNN) demonstrate that they can provide significant parameter savings while attaining the same accuracy as compared to the classical Dense Neural Network (DNN). In addition, we also show how TNN can be trained faster than DNN for the same accuracy. Besides TNN, we also introduce Tensor Network Initializer (TNN Init), a weight initialization scheme that leads to faster convergence with smaller variance for an equivalent parameter count as compared to a DNN. We benchmark TNN and TNN Init by applying them to solve the parabolic PDE associated with the Heston model, which is widely used in financial pricing theory.
翻訳日:2023-01-02 17:52:47 公開日:2022-12-28
# ハイパーエッジ依存ノード埋め込み学習のためのハイパーグラフニューラルネットワークフレームワーク

A Hypergraph Neural Network Framework for Learning Hyperedge-Dependent Node Embeddings ( http://arxiv.org/abs/2212.14077v1 )

ライセンス: Link先を確認
Ryan Aponte, Ryan A. Rossi, Shunan Guo, Jane Hoffswell, Nedim Lipka, Chang Xiao, Gromit Chan, Eunyee Koh, Nesreen Ahmed(参考訳) 本研究ではハイパーグラフ表現学習フレームワークHypergraph Neural Networks(HNN)を導入し,ハイパーグラフの各ノードに対するハイパーエッジ依存型埋め込みと合わせてハイパーエッジ埋め込みを共同で学習する。 hnnは、ノードの埋め込みがノードの特定のハイパーエッジに依存するハイパーグラフ内のノード毎の複数の埋め込みを導出する。 特に、HNNは正確で、データ効率が高く、多くの交換可能なコンポーネントで柔軟性があり、幅広いハイパーグラフ学習タスクに役立ちます。 ハイパーエッジ予測とハイパーグラフノード分類におけるHNNフレームワークの有効性を評価する。 HNNは,全ベースラインモデルとハイパーエッジ予測用グラフ,ハイパーグラフノード分類用グラフでそれぞれ7.72%,11.37%の平均ゲインを達成した。

In this work, we introduce a hypergraph representation learning framework called Hypergraph Neural Networks (HNN) that jointly learns hyperedge embeddings along with a set of hyperedge-dependent embeddings for each node in the hypergraph. HNN derives multiple embeddings per node in the hypergraph where each embedding for a node is dependent on a specific hyperedge of that node. Notably, HNN is accurate, data-efficient, flexible with many interchangeable components, and useful for a wide range of hypergraph learning tasks. We evaluate the effectiveness of the HNN framework for hyperedge prediction and hypergraph node classification. We find that HNN achieves an overall mean gain of 7.72% and 11.37% across all baseline models and graphs for hyperedge prediction and hypergraph node classification, respectively.
翻訳日:2023-01-02 17:52:26 公開日:2022-12-28
# マルチフィデリティベイズ最適化による学習型制御系のファルシフィケーション

Falsification of Learning-Based Controllers through Multi-Fidelity Bayesian Optimization ( http://arxiv.org/abs/2212.14118v1 )

ライセンス: Link先を確認
Zahra Shahrooei, Mykel J. Kochenderfer, Ali Baheri(参考訳) シミュレーションベースのファルシフィケーションは、システムが安全要件を満たす自信を高めるための実用的なテスト手法である。 忠実度シミュレーションは計算的に要求されるので,異なる忠実度レベルを持つシミュレータの利用について検討する。 第1ステップとして,環境パラメータの観点から全体安全仕様を表現し,この安全仕様を最適化問題として構成する。 我々は,システム障害の原因となる環境から可能なインスタンスを見つけることに加えて,どのレベルの忠実度で安全性評価を行うべきかを判断できるベイズ最適化を用いたマルチフィデリティ改ざんフレームワークを提案する。 本手法により,低忠実度シミュレータからの安価な不正確な情報と高忠実度シミュレータからの高価な正確な情報とを,低コストで自動的に切り替えることができる。 シミュレーションにおける各種環境に関する実験により,マルチフィデリティベイズ最適化は単一フィデリティベイズ最適化に匹敵するファルシフィケーション性能を持つが,はるかに低コストであることが示された。

Simulation-based falsification is a practical testing method to increase confidence that the system will meet safety requirements. Because full-fidelity simulations can be computationally demanding, we investigate the use of simulators with different levels of fidelity. As a first step, we express the overall safety specification in terms of environmental parameters and structure this safety specification as an optimization problem. We propose a multi-fidelity falsification framework using Bayesian optimization, which is able to determine at which level of fidelity we should conduct a safety evaluation in addition to finding possible instances from the environment that cause the system to fail. This method allows us to automatically switch between inexpensive, inaccurate information from a low-fidelity simulator and expensive, accurate information from a high-fidelity simulator in a cost-effective way. Our experiments on various environments in simulation demonstrate that multi-fidelity Bayesian optimization has falsification performance comparable to single-fidelity Bayesian optimization but with much lower cost.
翻訳日:2023-01-02 17:52:13 公開日:2022-12-28
# 学習に基づく最適不確実性定量法とその弾道効果問題への応用

A Learning-Based Optimal Uncertainty Quantification Method and Its Application to Ballistic Impact Problems ( http://arxiv.org/abs/2212.14709v1 )

ライセンス: Link先を確認
Xingsheng Sun, Burigede Liu(参考訳) 本稿では、入力(または前)確率測度が部分的に/不完全にしか知られていないシステム(例えば、統計モーメントと/または粗いトポロジーのみを含む)に対する最適不確実性境界の研究について、完全に特定するよりも研究する。 このような部分的知識は入力確率測度に制約を与える。 最適不確実性定量化の理論は、入力の極値確率測度を求めることによって、システムの出力の不確実性の最下限を計算しようとする制約最適化問題にタスクを変換することを可能にする。 このような最適化は、システムの性能指標(性能マップへの入力)の繰り返し評価を必要とし、本質的には高次元で非凸である。 したがって、実際に最適な不確実性境界を見つけることは困難である。 本稿では,機械学習,特にディープニューラルネットワークの課題に対する利用について検討する。 そこで我々は,確率勾配降下法と組み合わせて性能指標を近似するニューラルネットワーク分類器を導入し,最適化問題を解く。 本研究は, 軽量構造および保護材料として期待できるマグネシウム合金の影響の不確実性定量化に基づく学習枠組みを示す。 最後に,技術実践における性能証明と安全設計の地図作成にこの手法が有効であることを示す。

This paper concerns the study of optimal (supremum and infimum) uncertainty bounds for systems where the input (or prior) probability measure is only partially/imperfectly known (e.g., with only statistical moments and/or on a coarse topology) rather than fully specified. Such partial knowledge provides constraints on the input probability measures. The theory of Optimal Uncertainty Quantification allows us to convert the task into a constraint optimization problem where one seeks to compute the least upper/greatest lower bound of the system's output uncertainties by finding the extremal probability measure of the input. Such optimization requires repeated evaluation of the system's performance indicator (input to performance map) and is high-dimensional and non-convex by nature. Therefore, it is difficult to find the optimal uncertainty bounds in practice. In this paper, we examine the use of machine learning, especially deep neural networks, to address the challenge. We achieve this by introducing a neural network classifier to approximate the performance indicator combined with the stochastic gradient descent method to solve the optimization problem. We demonstrate the learning based framework on the uncertainty quantification of the impact of magnesium alloys, which are promising light-weight structural and protective materials. Finally, we show that the approach can be used to construct maps for the performance certificate and safety design in engineering practice.
翻訳日:2023-01-02 17:42:22 公開日:2022-12-28
# 量子ヒューリスティックアルゴリズムに基づく決定木構築アルゴリズムの改良

The Improvement of Decision Tree Construction Algorithm Based On Quantum Heuristic Algorithms ( http://arxiv.org/abs/2212.14725v1 )

ライセンス: Link先を確認
Ilnaz Mannapov(参考訳) 本研究は,量子シミュレータ上の決定木構築アルゴリズムの実装に関連している。 ここでは二項基準に基づくアルゴリズムを検討する。 また,量子ヒューリスティックQAOAによる改善能力についても検討した。 構築木を比較するために,このアルゴリズムの古典版と量子版を実装した。

This work is related to the implementation of a decision tree construction algorithm on a quantum simulator. Here we consider an algorithm based on a binary criterion. Also, we study the improvement capability with quantum heuristic QAOA. We implemented the classical and the quantum version of this algorithm to compare built trees.
翻訳日:2023-01-02 17:42:01 公開日:2022-12-28
# クラウドゲームサービスにおけるキー品質指標の測定と推定

Measuring and Estimating Key Quality Indicators in Cloud Gaming services ( http://arxiv.org/abs/2212.14073v1 )

ライセンス: Link先を確認
Carlos Baena, O.S. Pe\~naherrera-Pulla, Raquel Barco and Sergio Fortes(参考訳) ユーザ機器は、現在ゲーム業界で直面している大きなボトルネックの1つです。 現在利用可能な非常に現実的なゲームは、ゲームを実行するためのユーザーデバイスの高い計算要求を引き起こす。 その結果、ゲーム産業は、還元ハードウェアデバイスにおけるゲームエクスペリエンスを改善するパラダイムであるCloud Gamingの概念を提案している。 この目的のために、ゲームはリモートサーバにホストされ、ユーザのデバイスはゲームと対話するための周辺機器の役割のみを果たすように委譲される。 しかし、このパラダイムはユーザとクラウドを結ぶ通信リンクを過負荷にします。 そのため、サービスエクスペリエンスはネットワーク接続に大きく依存する。 これを解決するために、Cloud Gamingは、5Gと将来の6Gネットワークの約束されたパフォーマンスと、WiFiのようなマルチRATシナリオにおけるモビリティによる柔軟性によって強化される。 このスコープでは、Cloud Gamingサービスの主要なE2Eメトリクス、すなわちKQIの測定と推定のためのフレームワークを提案する。 さらに、クラウドゲームユーザエクスペリエンスに関連するkqiを予測するために、さまざまな機械学習技術を評価する。 この目的のために、実際の環境では、入力遅延、フリーズ率、知覚されたビデオフレームレートなどのサービスの主要なキー品質指標(kqis)を収集する。 これらの結果から,機械学習手法は,ネットワークベースメトリクスのみから,これらの指標を良好に推定できることが示されている。 これは、通信事業者が期待しているように、ユーザのデバイスにアクセスしなくても、携帯電話通信ネットワークを介してクラウドゲームサービスの配信をガイドする貴重な資産であると考えられている。

User equipment is one of the main bottlenecks facing the gaming industry nowadays. The extremely realistic games which are currently available trigger high computational requirements of the user devices to run games. As a consequence, the game industry has proposed the concept of Cloud Gaming, a paradigm that improves gaming experience in reduced hardware devices. To this end, games are hosted on remote servers, relegating users' devices to play only the role of a peripheral for interacting with the game. However, this paradigm overloads the communication links connecting the users with the cloud. Therefore, service experience becomes highly dependent on network connectivity. To overcome this, Cloud Gaming will be boosted by the promised performance of 5G and future 6G networks, together with the flexibility provided by mobility in multi-RAT scenarios, such as WiFi. In this scope, the present work proposes a framework for measuring and estimating the main E2E metrics of the Cloud Gaming service, namely KQIs. In addition, different machine learning techniques are assessed for predicting KQIs related to Cloud Gaming user's experience. To this end, the main key quality indicators (KQIs) of the service such as input lag, freeze percent or perceived video frame rate are collected in a real environment. Based on these, results show that machine learning techniques provide a good estimation of these indicators solely from network-based metrics. This is considered a valuable asset to guide the delivery of Cloud Gaming services through cellular communications networks even without access to the user's device, as it is expected for telecom operators.
翻訳日:2023-01-02 17:41:17 公開日:2022-12-28
# vertmatch: 3次元超音波画像における椎体構造検出のための半教師付き枠組み

VertMatch: A Semi-supervised Framework for Vertebral Structure Detection in 3D Ultrasound Volume ( http://arxiv.org/abs/2212.14747v1 )

ライセンス: Link先を確認
Hongye Zeng, kang Zhou, Songhan Ge, Yuchong Gao, Jianhao Zhao, Shenghua Gao, Rui Zheng(参考訳) 3次元超音波画像法がスコリシス評価に応用されているが、現在の評価法ではコロナ射影画像のみを使用し、3次元の変形と椎骨の回転は説明できない。 椎骨検出は三次元脊椎情報を明らかにするのに不可欠であるが,複雑なデータと限定的なアノテーションにより検出作業は困難である。 半教師付きデータを用いて3次元超音波体積の脊椎構造を検出するための2段階のフレームワークであるVertMatchを提案する。 最初のステップは、横スライス上の構造物の位置をグローバルに検出し、検出された位置に基づいて局所パッチをトリミングする。 第2のステップは、パッチが実際の脊椎構造を含むかどうかを識別し、予測された位置を第1のステップからスクリーニングすることである。 VertMatchは,第1段階における位置検出のために,(1)信頼しきい値法から生成された擬似ラベルのスクリーニングに,(2)隣接している複数のスライスを入力して,よりラベルのないデータを利用するためのマルチスライス整合性,(3)第2段階におけるパッチ識別のためのカテゴリをバッチ毎に再バランスして不均衡問題を解決する,という,半教師付き学習のための3つの新しいコンポーネントを開発した。 実験の結果,超音波で椎骨を正確に検出でき,最先端の方法よりも優れていた。 vertmatchは40個の超音波スキャンの臨床応用においても有効であり、スコリシスの3次元評価に有望なアプローチである。

Three-dimensional (3D) ultrasound imaging technique has been applied for scoliosis assessment, but current assessment method only uses coronal projection image and cannot illustrate the 3D deformity and vertebra rotation. The vertebra detection is essential to reveal 3D spine information, but the detection task is challenging due to complex data and limited annotations. We propose VertMatch, a two-step framework to detect vertebral structures in 3D ultrasound volume by utilizing unlabeled data in semi-supervised manner. The first step is to detect the possible positions of structures on transverse slice globally, and then the local patches are cropped based on detected positions. The second step is to distinguish whether the patches contain real vertebral structures and screen the predicted positions from the first step. VertMatch develops three novel components for semi-supervised learning: for position detection in the first step, (1) anatomical prior is used to screen pseudo labels generated from confidence threshold method; (2) multi-slice consistency is used to utilize more unlabeled data by inputting multiple adjacent slices; (3) for patch identification in the second step, the categories are rebalanced in each batch to solve imbalance problem. Experimental results demonstrate that VertMatch can detect vertebra accurately in ultrasound volume and outperforms state-of-the-art methods. VertMatch is also validated in clinical application on forty ultrasound scans, and it can be a promising approach for 3D assessment of scoliosis.
翻訳日:2023-01-02 17:26:15 公開日:2022-12-28
# 人間と上肢の人工装具の連携を理解するための共同行動フレームワーク

Joint Action is a Framework for Understanding Partnerships Between Humans and Upper Limb Prostheses ( http://arxiv.org/abs/2212.14124v1 )

ライセンス: Link先を確認
Michael R. Dawson, Adam S. R. Parker, Heather E. Williams, Ahmed W. Shehata, Jacqueline S. Hebert, Craig S. Chapman, Patrick M. Pilarski(参考訳) 近年, 上肢補綴の進歩により, ロボット義肢の運動量が大幅に改善した。 しかし,ユーザ生成信号による自由度制御は依然として困難である。 この問題に対処するために、動き意図を予測するために様々な機械学習コントローラが開発されている。 これらのコントローラがよりインテリジェントになり、システムの自律性が向上するにつれて、人間と機械のインターフェースをツールとして表現するという従来のアプローチは制限される。 これらのインタフェースの理解を改善するための1つの可能なアプローチは、ジョイントアクションのレンズを通して協調的なマルチエージェントシステムとしてモデル化することである。 共同行動の分野は、共通の環境における協調的な変化によって、歌唱やテーブルの移動といったタスクを達成するために共同作業を行っている2人の人間パートナーに広く適用されてきた。 そこで本研究では, 異なる人工装具制御器(筋電図, 逐次切替, パターン認識, 適応切替)を比較し, 関節動作の特徴を提示する方法について検討した。 比較の結果、既存の筋電システムの相互関係を理解するための新たな視点と、各パートナー間のコラボレーティブなコミュニケーションを増加させることで、これらのシステムを改善する方法についての提言が得られた。

Recent advances in upper limb prostheses have led to significant improvements in the number of movements provided by the robotic limb. However, the method for controlling multiple degrees of freedom via user-generated signals remains challenging. To address this issue, various machine learning controllers have been developed to better predict movement intent. As these controllers become more intelligent and take on more autonomy in the system, the traditional approach of representing the human-machine interface as a human controlling a tool becomes limiting. One possible approach to improve the understanding of these interfaces is to model them as collaborative, multi-agent systems through the lens of joint action. The field of joint action has been commonly applied to two human partners who are trying to work jointly together to achieve a task, such as singing or moving a table together, by effecting coordinated change in their shared environment. In this work, we compare different prosthesis controllers (proportional electromyography with sequential switching, pattern recognition, and adaptive switching) in terms of how they present the hallmarks of joint action. The results of the comparison lead to a new perspective for understanding how existing myoelectric systems relate to each other, along with recommendations for how to improve these systems by increasing the collaborative communication between each partner.
翻訳日:2023-01-02 17:25:17 公開日:2022-12-28
# AIを活用したクラウドソーシングを目指して

Towards AI-Empowered Crowdsourcing ( http://arxiv.org/abs/2212.14676v1 )

ライセンス: Link先を確認
Shipeng Wang, Qingzhong Li, Lizhen Cui, Zhongmin Yan, Yonghui Xu, Zhuan Shi, Zhiqi Shen, and Han Yu(参考訳) ヒューマンインテリジェンスと生産性を動的に動員して自動化だけで対処するには複雑すぎるタスクに取り組むクラウドソーシングは、重要な研究トピックとなり、新しいビジネス(Uber、Airbnbなど)にインスピレーションを与えている。 ここ数年、クラウドソーシングは、労働者とタスクを手動でマッチングできるプラットフォームの提供から、ai(artificial intelligence)によるデータ駆動型アルゴリズム管理アプローチを活用したプラットフォームへと変貌を遂げた。 本稿では,aiがクラウドソーシング(ai-empowered crowdsourcing, aiec)をどのように活用できるかという,ユニークな体系的な概観を示す調査を行う。 アルゴリズムによるクラウドソーシングを3つの主要な領域に分割する分類法を提案する。 1)タスク・デリゲーション 2)モチベーションのある労働者、そして 3) 達成すべき主な目的に焦点を当てた品質管理。 限界と洞察を議論し,これらの分野における研究の課題をキュレートし,今後の研究の方向性を強調する。

Crowdsourcing, in which human intelligence and productivity is dynamically mobilized to tackle tasks too complex for automation alone to handle, has grown to be an important research topic and inspired new businesses (e.g., Uber, Airbnb). Over the years, crowdsourcing has morphed from providing a platform where workers and tasks can be matched up manually into one which leverages data-driven algorithmic management approaches powered by artificial intelligence (AI) to achieve increasingly sophisticated optimization objectives. In this paper, we provide a survey presenting a unique systematic overview on how AI can empower crowdsourcing - which we refer to as AI-Empowered Crowdsourcing(AIEC). We propose a taxonomy which divides algorithmic crowdsourcing into three major areas: 1) task delegation, 2) motivating workers, and 3) quality control, focusing on the major objectives which need to be accomplished. We discuss the limitations and insights, and curate the challenges of doing research in each of these areas to highlight promising future research directions.
翻訳日:2023-01-02 17:15:05 公開日:2022-12-28
# Dream3D: 3次元形状とテキスト・画像拡散モデルを用いたゼロショットテキスト・ツー・3次元合成

Dream3D: Zero-Shot Text-to-3D Synthesis Using 3D Shape Prior and Text-to-Image Diffusion Models ( http://arxiv.org/abs/2212.14704v1 )

ライセンス: Link先を確認
Jiale Xu, Xintao Wang, Weihao Cheng, Yan-Pei Cao, Ying Shan, Xiaohu Qie, Shenghua Gao(参考訳) 最近のCLIP誘導3D最適化手法、例えばDreamFieldsやPureCLIPNeRFは、ゼロショットテキスト誘導3D合成において大きな成功を収めている。 しかしながら、スクラッチトレーニングと事前知識のないランダム初期化のため、これらの方法は通常、対応するテキストに準拠した正確で忠実な3d構造を生成することができない。 本稿では,CLIP誘導3次元最適化手法に先立って,初めて明示的な3次元形状を導入する。 具体的には,先行する3d形状として,テキストから形状への入力テキストから高品質な3d形状を生成する。 次に、これを神経放射場の初期化として利用し、完全なプロンプトで最適化する。 テキスト対形状生成には,テキストと画像のモダリティを強力なテキスト対画像拡散モデルで直接ブリッジする,単純かつ効果的なアプローチを提案する。 テキスト対画像モデルによって合成された画像と、画像対形状生成器の訓練に用いられる形状レンダリングとの間のスタイル領域ギャップを狭めるため、学習可能なテキストプロンプトを共同で最適化し、レンダリングスタイルの画像生成のためのテキスト対画像拡散モデルを微調整することを提案する。 我々の手法、すなわちDream3Dは、最先端の手法よりも視覚的品質と形状の精度で想像力のある3Dコンテンツを生成できる。

Recent CLIP-guided 3D optimization methods, e.g., DreamFields and PureCLIPNeRF achieve great success in zero-shot text-guided 3D synthesis. However, due to the scratch training and random initialization without any prior knowledge, these methods usually fail to generate accurate and faithful 3D structures that conform to the corresponding text. In this paper, we make the first attempt to introduce the explicit 3D shape prior to CLIP-guided 3D optimization methods. Specifically, we first generate a high-quality 3D shape from input texts in the text-to-shape stage as the 3D shape prior. We then utilize it as the initialization of a neural radiance field and then optimize it with the full prompt. For the text-to-shape generation, we present a simple yet effective approach that directly bridges the text and image modalities with a powerful text-to-image diffusion model. To narrow the style domain gap between images synthesized by the text-to-image model and shape renderings used to train the image-to-shape generator, we further propose to jointly optimize a learnable text prompt and fine-tune the text-to-image diffusion model for rendering-style image generation. Our method, namely, Dream3D, is capable of generating imaginative 3D content with better visual quality and shape accuracy than state-of-the-art methods.
翻訳日:2023-01-02 16:57:26 公開日:2022-12-28
# Curator: 自己監督型学習による大規模ラベル付きデータセットの作成

Curator: Creating Large-Scale Curated Labelled Datasets using Self-Supervised Learning ( http://arxiv.org/abs/2212.14099v1 )

ライセンス: Link先を確認
Tarun Narayanan, Ajay Krishnan, Anirudh Koul, Siddha Ganju(参考訳) 地球科学のような分野に機械学習を適用することは、そのような領域で利用可能な大量の生データのコーパスにもかかわらず、ラベル付きデータの欠如によって妨げられる。 例えば、衛星画像上の山火事分類器の訓練には、数週間から数ヶ月にわたる高価で時間を要する膨大なデータセットのキュレーションが必要となる。 40ペタバイト以上のデータから関連するサンプルを探すには、干し草の山で針を見つけるような手作業で画像を探す必要がある。 コードなしのエンドツーエンドパイプラインであるCuratorは、ラベル付きデータセットの完全キュレートに要する時間を劇的に短縮する。 キュレーターは、自己スーパービジョン、スケーラブルな近接探索、画像表現の学習と識別のためのアクティブラーニングを組み合わせることで、大量の未学習データを検索することができる。 このパイプラインは、さまざまなドメインの問題を解決するためにも簡単に適用できる。 全体として、パイプラインは、研究者が1つの参照イメージから、小さな時間内に包括的なデータセットに移行するのを実用的なものにします。

Applying Machine learning to domains like Earth Sciences is impeded by the lack of labeled data, despite a large corpus of raw data available in such domains. For instance, training a wildfire classifier on satellite imagery requires curating a massive and diverse dataset, which is an expensive and time-consuming process that can span from weeks to months. Searching for relevant examples in over 40 petabytes of unlabelled data requires researchers to manually hunt for such images, much like finding a needle in a haystack. We present a no-code end-to-end pipeline, Curator, which dramatically minimizes the time taken to curate an exhaustive labeled dataset. Curator is able to search massive amounts of unlabelled data by combining self-supervision, scalable nearest neighbor search, and active learning to learn and differentiate image representations. The pipeline can also be readily applied to solve problems across different domains. Overall, the pipeline makes it practical for researchers to go from just one reference image to a comprehensive dataset in a diminutive span of time.
翻訳日:2023-01-02 16:32:26 公開日:2022-12-28
# 人物再同定のための共同識別・計量埋め込み学習

Joint Discriminative and Metric Embedding Learning for Person Re-Identification ( http://arxiv.org/abs/2212.14107v1 )

ライセンス: Link先を確認
Sinan Sabri, Zaigham Randhawa, Gianfranco Doretto(参考訳) 人物再同定は、ポーズ、照明、視点、背景、センサノイズなどの変動の非制限的迷惑要因によって引き起こされるクラス内ばらつきが高いため、困難な課題である。 最近のアプローチでは、強力なアーキテクチャには、クラス内分散を最小化し、クラス間分離を最大化する損失をトレーニングすることで、迷惑要因に不変な特徴表現を学ぶ能力がある、と仮定している。 支配的なアプローチはマージンによる判別的損失、例えば角マージンのソフトマックス損失、またはトリプレットのバッチハードマイニングによるトリプレット損失のようなメトリック学習損失のいずれかを使用する。 ソフトマックスは特徴正規化を課すため、特徴埋め込みを監督する勾配流を制限する。 損失と三重項損失を欠落勾配のプロキシとして活用することで、この問題に対処する。 さらに,属性予測の判別タスクを付加することにより,迷惑要因へのばらつきをさらに改善する。 広範な評価では、総合的な表現だけを学ぶと、最も難しい3つのデータセットの最先端を一貫して上回っています。 このような表現は実用システムにおいて容易に展開できる。 最後に,損失の和合により,ソフトマックス損失のマージンが低下し,性能が向上することがわかった。

Person re-identification is a challenging task because of the high intra-class variance induced by the unrestricted nuisance factors of variations such as pose, illumination, viewpoint, background, and sensor noise. Recent approaches postulate that powerful architectures have the capacity to learn feature representations invariant to nuisance factors, by training them with losses that minimize intra-class variance and maximize inter-class separation, without modeling nuisance factors explicitly. The dominant approaches use either a discriminative loss with margin, like the softmax loss with the additive angular margin, or a metric learning loss, like the triplet loss with batch hard mining of triplets. Since the softmax imposes feature normalization, it limits the gradient flow supervising the feature embedding. We address this by joining the losses and leveraging the triplet loss as a proxy for the missing gradients. We further improve invariance to nuisance factors by adding the discriminative task of predicting attributes. Our extensive evaluation highlights that when only a holistic representation is learned, we consistently outperform the state-of-the-art on the three most challenging datasets. Such representations are easier to deploy in practical systems. Finally, we found that joining the losses removes the requirement for having a margin in the softmax loss while increasing performance.
翻訳日:2023-01-02 16:32:09 公開日:2022-12-28
# 仮面回復のための学習表現

Learning Representations for Masked Facial Recovery ( http://arxiv.org/abs/2212.14110v1 )

ライセンス: Link先を確認
Zaigham Randhawa, Shivang Patel, Donald Adjeroh, Gianfranco Doretto(参考訳) 近年のパンデミックにより、公共の場で保護マスクを着用している人が劇的に増加した。 このことは、現在パフォーマンスの低下に苦しんでいる顔認識技術の普及に明らかな課題をもたらしている。 この問題に対処する1つの方法は、前処理ステップとしてフェイスリカバリメソッドに戻ることである。 顔再構成と操作への現在のアプローチは、顔多様体をモデル化する能力を活用するが、汎用的である傾向にある。 マスクを着用した同一人物の画像から顔画像の復元に特有な手法を提案する。 我々は, アンマスクエンコーダの学習に最適な損失セットに基づいて, 特殊なGAN逆変換法を設計する。 広範囲な実験により,このアプローチが顔画像のアンマフティングに有効であることを示す。 さらに,複数の顔認証ベンチマークデータセットに基づく顔認証性能を向上させるために,識別情報が十分に保存されていることも示す。

The pandemic of these very recent years has led to a dramatic increase in people wearing protective masks in public venues. This poses obvious challenges to the pervasive use of face recognition technology that now is suffering a decline in performance. One way to address the problem is to revert to face recovery methods as a preprocessing step. Current approaches to face reconstruction and manipulation leverage the ability to model the face manifold, but tend to be generic. We introduce a method that is specific for the recovery of the face image from an image of the same individual wearing a mask. We do so by designing a specialized GAN inversion method, based on an appropriate set of losses for learning an unmasking encoder. With extensive experiments, we show that the approach is effective at unmasking face images. In addition, we also show that the identity information is preserved sufficiently well to improve face verification performance based on several face recognition benchmark datasets.
翻訳日:2023-01-02 16:31:46 公開日:2022-12-28
# CellTranspose: セルインスタンスセグメンテーションのためのFew-shot Domain Adaptation

CellTranspose: Few-shot Domain Adaptation for Cellular Instance Segmentation ( http://arxiv.org/abs/2212.14121v1 )

ライセンス: Link先を確認
Matthew Keaton, Ram Zaveri, Gianfranco Doretto(参考訳) 自動細胞インスタンスセグメンテーションは、過去20年間生物研究を加速するために使われてきたプロセスであり、最近の進歩は、生物学者の努力を減らして、より高品質な結果を生み出している。 現在のほとんどの取り組みは、高度に一般化されたモデルを生成することによって、研究者を画像から完全に切り離すことに焦点を当てている。 しかし、これらのモデルは、トレーニングで使用するものとは異なる、新しいデータに直面すると必ず失敗する。 この研究では、大量のターゲットデータと再トレーニングのための計算能力の可用性を前提とした手法にアプローチするのではなく、最小限の新たな注釈付きデータとトレーニング時間を必要とするアプローチを設計するという、さらに大きな課題に対処する。 我々は、いくつかの注釈付きサンプルを非常に効率的に活用する特別な対照的な損失を設計する。 結果の大きなセットは、3から5のアノテーションが正確さでモデルに導かれることを示している。 1) 共変量シフト効果を著しく緩和する。 2) 他の適応方法に適合する又は超越する 3)ターゲット分布で完全に再訓練された手法にさえアプローチする。 適応トレーニングはわずか数分で、モデルのパフォーマンス、コンピューティング要件、エキスパートレベルのアノテーションニーズのバランスへの道を開く。

Automated cellular instance segmentation is a process utilized for accelerating biological research for the past two decades, and recent advancements have produced higher quality results with less effort from the biologist. Most current endeavors focus on completely cutting the researcher out of the picture by generating highly generalized models. However, these models invariably fail when faced with novel data, distributed differently than the ones used for training. Rather than approaching the problem with methods that presume the availability of large amounts of target data and computing power for retraining, in this work we address the even greater challenge of designing an approach that requires minimal amounts of new annotated data as well as training time. We do so by designing specialized contrastive losses that leverage the few annotated samples very efficiently. A large set of results show that 3 to 5 annotations lead to models with accuracy that: 1) significantly mitigate the covariate shift effects; 2) matches or surpasses other adaptation methods; 3) even approaches methods that have been fully retrained on the target distribution. The adaptation training is only a few minutes, paving a path towards a balance between model performance, computing requirements and expert-level annotation needs.
翻訳日:2023-01-02 16:31:31 公開日:2022-12-28
# 多人数ロボットインタラクションのためのビデオ拡張技術を用いた関節エンゲージメント分類

Joint Engagement Classification using Video Augmentation Techniques for Multi-person Human-robot Interaction ( http://arxiv.org/abs/2212.14128v1 )

ライセンス: Link先を確認
Yubin Kim, Huili Chen, Sharifa Alghowinem, Cynthia Breazeal, and Hae Won Park(参考訳) 社会的ロボットは、直感的かつ相互にユーザーグループと自律的に対話する上で、影響理解能力が不可欠である。 しかし、マルチパーソンが理解に影響を与えるという課題は、ユーザーの感情状態(例えば、エンゲージメント)の正確な認識だけでなく、その間の複雑な、しかし微妙な非言語的な交流を示すメンバー同士の相互行為(例えば、共同エンゲージメント)の認識からも生じる。 本稿では,ディープラーニングフレームワークと各種映像付加技術を組み合わせて,親子dyadの協力関係を識別するための新しいハイブリッドフレームワークを提案する。 家庭でソーシャルロボットと一緒にストーリーブックを読む親子のデータセットを用いて、まずRGBフレームと骨格ベースの関節エンゲージメント認識モデルを4つのビデオ強化技術(General Aug、DeepFake、CutOut、Mixed)でトレーニングし、関節エンゲージメント分類性能を向上させる。 第2に,ロボット親子インタラクションにおける学習モデルの使用に関する実験結果を示す。 第3に,モデルの学習表現を評価するための行動基準を導入し,協調関係を認識する際のモデル解釈可能性について検討する。 この研究は、大規模な公開データセットで事前訓練されたエンドツーエンドビデオ理解モデルの可能性を完全に解き放つための第一歩であり、野生の複数対人ロボットインタラクションにおける認識に影響を与えるためのデータ拡張と可視化技術が強化されている。

Affect understanding capability is essential for social robots to autonomously interact with a group of users in an intuitive and reciprocal way. However, the challenge of multi-person affect understanding comes from not only the accurate perception of each user's affective state (e.g., engagement) but also the recognition of the affect interplay between the members (e.g., joint engagement) that presents as complex, but subtle, nonverbal exchanges between them. Here we present a novel hybrid framework for identifying a parent-child dyad's joint engagement by combining a deep learning framework with various video augmentation techniques. Using a dataset of parent-child dyads reading storybooks together with a social robot at home, we first train RGB frame- and skeleton-based joint engagement recognition models with four video augmentation techniques (General Aug, DeepFake, CutOut, and Mixed) applied datasets to improve joint engagement classification performance. Second, we demonstrate experimental results on the use of trained models in the robot-parent-child interaction context. Third, we introduce a behavior-based metric for evaluating the learned representation of the models to investigate the model interpretability when recognizing joint engagement. This work serves as the first step toward fully unlocking the potential of end-to-end video understanding models pre-trained on large public datasets and augmented with data augmentation and visualization techniques for affect recognition in the multi-person human-robot interaction in the wild.
翻訳日:2023-01-02 16:31:09 公開日:2022-12-28
# 重要ヘイト音声検出における世界知識の活用

Leveraging World Knowledge in Implicit Hate Speech Detection ( http://arxiv.org/abs/2212.14100v1 )

ライセンス: Link先を確認
Jessica Lin(参考訳) 明示的なヘイトスピーチの特定には多くの注意が払われているが、コード化された言語や間接的な言語に偽装された暗黙の憎悪表現は普及しており、既存のヘイトスピーチ検出システムにとって大きな課題である。 本稿では、明示的・暗黙的ヘイトスピーチ検出にエンティティリンク(el)技術を適用する最初の試みについて述べる。そこでは、テキスト中のエンティティ参照に関する現実世界の知識が、モデルがヘイトスピーチを検出するのに役立つことを示すとともに、明示的なエンティティトリガ(例えばrally、kkk)が存在する場合、モデルにそれを追加するメリットをより顕著に示す。 また、実世界の知識がヘイトスピーチ検出に価値を与えないケースについても論じ、ヘイトスピーチの微妙さを理解し、モデル化するための洞察を提供する。

While much attention has been paid to identifying explicit hate speech, implicit hateful expressions that are disguised in coded or indirect language are pervasive and remain a major challenge for existing hate speech detection systems. This paper presents the first attempt to apply Entity Linking (EL) techniques to both explicit and implicit hate speech detection, where we show that such real world knowledge about entity mentions in a text does help models better detect hate speech, and the benefit of adding it into the model is more pronounced when explicit entity triggers (e.g., rally, KKK) are present. We also discuss cases where real world knowledge does not add value to hate speech detection, which provides more insights into understanding and modeling the subtleties of hate speech.
翻訳日:2023-01-02 16:22:43 公開日:2022-12-28
# 正確なロバストアーキテクチャの微分可能探索

Differentiable Search of Accurate and Robust Architectures ( http://arxiv.org/abs/2212.14049v1 )

ライセンス: Link先を確認
Yuwei Ou, Xiangning Xie, Shangce Gao, Yanan Sun, Kay Chen Tan, Jiancheng Lv(参考訳) ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが判明し、防衛のために様々な方法が提案されている。 これらの方法のうち、敵の訓練はその単純さと有効性から、ますます注目を集めている。 しかし,対象dnnのアーキテクチャによって,対向訓練の性能は大幅に制限されており,結果として生じるdnnは精度が低く,堅牢性が不十分であることが多い。 この問題に対処するために、DSARAは、敵の訓練後に正確で堅牢なニューラルネットワークアーキテクチャを自動検索する。 特に, セル配置とフィルタ数との比例関係を慎重に設計することにより, 探索アーキテクチャの精度とロバスト性の向上を図った, 対角訓練に特化した新規なセルベース探索空間を設計する。 次に, 精度とロバストの両方のニューラルネットワークを探索する二段階探索戦略を提案する。 最初の段階では、アーキテクチャパラメータを最適化して、敵の損失を最小限に抑え、強靭性を高めるための敵のトレーニングの有効性を最大限に活用する。 第2段階では,提案した多目的対向学習手法を用いて,自然損失と対向損失の両方を最小限に抑え,探索されたニューラルアーキテクチャが正確かつ堅牢であるように,アーキテクチャパラメータを最適化する。 本研究では,提案手法の精度とロバスト性の両方において,提案手法の優越性を明らかにするため,自然データと様々な敵の攻撃の下で提案アルゴリズムを評価する。 また、正確でロバストなニューラルアーキテクチャは入力と出力の近くに非常に異なる構造を配置する傾向があり、これは手作りと正確でロバストなニューラルアーキテクチャの自動設計の両方において非常に実用的な意味を持つ。

Deep neural networks (DNNs) are found to be vulnerable to adversarial attacks, and various methods have been proposed for the defense. Among these methods, adversarial training has been drawing increasing attention because of its simplicity and effectiveness. However, the performance of the adversarial training is greatly limited by the architectures of target DNNs, which often makes the resulting DNNs with poor accuracy and unsatisfactory robustness. To address this problem, we propose DSARA to automatically search for the neural architectures that are accurate and robust after adversarial training. In particular, we design a novel cell-based search space specially for adversarial training, which improves the accuracy and the robustness upper bound of the searched architectures by carefully designing the placement of the cells and the proportional relationship of the filter numbers. Then we propose a two-stage search strategy to search for both accurate and robust neural architectures. At the first stage, the architecture parameters are optimized to minimize the adversarial loss, which makes full use of the effectiveness of the adversarial training in enhancing the robustness. At the second stage, the architecture parameters are optimized to minimize both the natural loss and the adversarial loss utilizing the proposed multi-objective adversarial training method, so that the searched neural architectures are both accurate and robust. We evaluate the proposed algorithm under natural data and various adversarial attacks, which reveals the superiority of the proposed method in terms of both accurate and robust architectures. We also conclude that accurate and robust neural architectures tend to deploy very different structures near the input and the output, which has great practical significance on both hand-crafting and automatically designing of accurate and robust neural architectures.
翻訳日:2023-01-02 15:55:35 公開日:2022-12-28
# フェデレーション学習のためのswarmに基づくアンサンブル学習の証明

Proof of Swarm Based Ensemble Learning for Federated Learning Applications ( http://arxiv.org/abs/2212.14050v1 )

ライセンス: Link先を確認
Ali Raza, Kim Phuc Tran, Ludovic Koehl, Shujun Li(参考訳) アンサンブル学習は複数の機械学習モデルの結果を組み合わせて、バイアス、分散、改善された予測を低減し、より良く最適化された予測モデルを提供する。 しかし,連合学習では,プライバシ上の懸念から,中央集権的なアンサンブル学習を直接適用することは不可能である。 したがって、局所モデルの結果を結合してグローバルモデルを生成するメカニズムが必要となる。 ビザンティンフォールトトレランス(BFT)のようなほとんどの分散コンセンサスアルゴリズムは、通常そのようなアプリケーションではうまく機能しない。 これは、一部のピアの予測が無視されているため、ほとんどのピアが他のピアの判断を考慮せずに勝利できるためである。 また、各ピアの結果の信頼度スコアは通常は考慮されていないが、アンサンブル学習に考慮すべき重要な特徴である。 さらに、ネクタイイベントの問題は、BFTのようなメソッドによって未適応にされることが多い。 これらの研究ギャップを埋めるために,粒子群に基づくアルゴリズムにインスパイアされた,分散学習のための分散コンセンサスアルゴリズムPoSw(Proof of Swarm)を提案する。 提案するアルゴリズムは, 比較的少ないステップで常に収束し, 最適解の達成を試みながら結合イベントを解決する機構を有することが理論的に証明されている。 医療分野の例としてECG分類を用いて提案アルゴリズムの性能を実験的に検証し、アンサンブル学習モデルが全ての局所モデルやFLベースグローバルモデルよりも優れていたことを示す。 我々の知る限り、提案アルゴリズムは、フェデレート学習を用いて訓練された分散モデルの出力結果にコンセンサスを与える最初の試みである。

Ensemble learning combines results from multiple machine learning models in order to provide a better and optimised predictive model with reduced bias, variance and improved predictions. However, in federated learning it is not feasible to apply centralised ensemble learning directly due to privacy concerns. Hence, a mechanism is required to combine results of local models to produce a global model. Most distributed consensus algorithms, such as Byzantine fault tolerance (BFT), do not normally perform well in such applications. This is because, in such methods predictions of some of the peers are disregarded, so a majority of peers can win without even considering other peers' decisions. Additionally, the confidence score of the result of each peer is not normally taken into account, although it is an important feature to consider for ensemble learning. Moreover, the problem of a tie event is often left un-addressed by methods such as BFT. To fill these research gaps, we propose PoSw (Proof of Swarm), a novel distributed consensus algorithm for ensemble learning in a federated setting, which was inspired by particle swarm based algorithms for solving optimisation problems. The proposed algorithm is theoretically proved to always converge in a relatively small number of steps and has mechanisms to resolve tie events while trying to achieve sub-optimum solutions. We experimentally validated the performance of the proposed algorithm using ECG classification as an example application in healthcare, showing that the ensemble learning model outperformed all local models and even the FL-based global model. To the best of our knowledge, the proposed algorithm is the first attempt to make consensus over the output results of distributed models trained using federated learning.
翻訳日:2023-01-02 15:55:05 公開日:2022-12-28
# 機械学習を用いた5Gネットワークの大規模セルレベル品質評価

Large-Scale Cell-Level Quality of Service Estimation on 5G Networks Using Machine Learning Techniques ( http://arxiv.org/abs/2212.14071v1 )

ライセンス: Link先を確認
M. Tu\u{g}berk \.I\c{s}yapar, Ufuk Uyan, Mahiye Uluya\u{g}mur \"Ozt\"urk(参考訳) 本研究では,多忙時間カウンタデータとネットワークトポロジーを用いた技術パラメータを用いて,各都市における基地局セルのパフォーマンス指標として,所定のスループット値におけるトラヒック測定レベルエクスペリエンス率を推定する汎用機械学習フレームワークを提案する。 特徴工学的手法を応用して, 周辺空間における細胞群間の相互作用を効果的に表現するために, 生相関カウンター値の効果を高めるために, 追加の予測器のスコアが提案されている。 変換データにエンド・ツー・エンド回帰モデルを適用し、様々な大きさの未確認都市で結果を示す。

This study presents a general machine learning framework to estimate the traffic-measurement-level experience rate at given throughput values in the form of a Key Performance Indicator for the cells on base stations across various cities, using busy-hour counter data, and several technical parameters together with the network topology. Relying on feature engineering techniques, scores of additional predictors are proposed to enhance the effects of raw correlated counter values over the corresponding targets, and to represent the underlying interactions among groups of cells within nearby spatial locations effectively. An end-to-end regression modeling is applied on the transformed data, with results presented on unseen cities of varying sizes.
翻訳日:2023-01-02 15:54:37 公開日:2022-12-28
# 構造状態変換:構造ヘルスモニタリングのためのドメイン一般化を用いた市民構造間の状態伝達

Structural State Translation: Condition Transfer between Civil Structures Using Domain-Generalization for Structural Health Monitoring ( http://arxiv.org/abs/2212.14048v1 )

ライセンス: Link先を確認
Furkan Luleci, F. Necati Catbas(参考訳) 構造的健康モニタリング(SHM)システムを用いることで、すべての土木構造物に広範囲な検知装置を配置することは、コストがかかり実用的ではない。 人口ベースのscm (pbshm) のような困難を緩和するために様々な概念が導入された。 それにもかかわらず、文献に提示された研究は、異質な市民構造の異なる構造状態(条件)の情報にアクセスするという課題を十分に扱っていない。 本研究は,異種構造から得られた情報に基づいて,異なる土木構造物の応答データを推定することを目的とした,構造状態変換(sst)と呼ばれる新しい枠組みを提案する。 SSTは、異なるシビル構造のソースドメインにおけるドメイン不変表現を発見し、学習した後、あるシビル構造の状態を別の状態に変換するものとして定義することができる。 SSTは、ドメイン一般化サイクル生成(DGCG)モデルを用いて、2つの異なる構造条件の数値ブリッジ構造から得られた加速データセットのドメイン不変表現を学習する。 言い換えると、このモデルは3つの異なる数値ブリッジモデルでテストされ、それらの構造条件を翻訳する。 平均Magnitude-Squared Coherence (MMSC) とモーダル識別子によるSSTの評価結果から, 翻訳されたブリッジ状態(合成状態)は実状態と著しく類似していることがわかった。 したがって、実および翻訳されたブリッジ状態の平均MMSC値は91.2%と97.1%であり、自然周波数の最小と最大差は5.71%と0%であり、最小と最大のモード保証基準(MAC)値は0.998と0.870である。 本研究は,構造が異なる状態や状態にある間,構造からデータを得ることが可能であることを示すため,データ不足やpbshmにとって極めて重要である。

Using Structural Health Monitoring (SHM) systems with extensive sensing arrangements on every civil structure can be costly and impractical. Various concepts have been introduced to alleviate such difficulties, such as Population-based SHM (PBSHM). Nevertheless, the studies presented in the literature do not adequately address the challenge of accessing the information on different structural states (conditions) of dissimilar civil structures. The study herein introduces a novel framework named Structural State Translation (SST), which aims to estimate the response data of different civil structures based on the information obtained from a dissimilar structure. SST can be defined as Translating a state of one civil structure to another state after discovering and learning the domain-invariant representation in the source domains of a dissimilar civil structure. SST employs a Domain-Generalized Cycle-Generative (DGCG) model to learn the domain-invariant representation in the acceleration datasets obtained from a numeric bridge structure that is in two different structural conditions. In other words, the model is tested on three dissimilar numeric bridge models to translate their structural conditions. The evaluation results of SST via Mean Magnitude-Squared Coherence (MMSC) and modal identifiers showed that the translated bridge states (synthetic states) are significantly similar to the real ones. As such, the minimum and maximum average MMSC values of real and translated bridge states are 91.2% and 97.1%, the minimum and the maximum difference in natural frequencies are 5.71% and 0%, and the minimum and maximum Modal Assurance Criterion (MAC) values are 0.998 and 0.870. This study is critical for data scarcity and PBSHM, as it demonstrates that it is possible to obtain data from structures while the structure is actually in a different condition or state.
翻訳日:2023-01-02 15:29:43 公開日:2022-12-28
# 分散政策勾配法の収束性について

On the Convergence of Discounted Policy Gradient Methods ( http://arxiv.org/abs/2212.14066v1 )

ライセンス: Link先を確認
Chris Nota(参考訳) 強化学習のための一般的な政策勾配法は、割引近似として知られる政策勾配のバイアス近似に従う。 方針勾配の値引き近似は目的関数の勾配ではないことが示されているが、その収束挙動や性質についてはほとんど知られていない。 本稿では,割引係数が学習率の低下に関連する速度で緩やかに増加するように,割引近似が追従された場合,その結果,未確認目標の勾配上昇の標準保証を回復する。

Many popular policy gradient methods for reinforcement learning follow a biased approximation of the policy gradient known as the discounted approximation. While it has been shown that the discounted approximation of the policy gradient is not the gradient of any objective function, little else is known about its convergence behavior or properties. In this paper, we show that if the discounted approximation is followed such that the discount factor is increased slowly at a rate related to a decreasing learning rate, the resulting method recovers the standard guarantees of gradient ascent on the undiscounted objective.
翻訳日:2023-01-02 15:29:13 公開日:2022-12-28
# COVID-19成層への潜伏シフトによるマルチモーダル説明可能性

Multimodal Explainability via Latent Shift applied to COVID-19 stratification ( http://arxiv.org/abs/2212.14084v1 )

ライセンス: Link先を確認
Valerio Guarrasi, Lorenzo Tronchin, Domenico Albano, Eliodoro Faiella, Deborah Fazzini, Domiziana Santucci, Paolo Soda(参考訳) 私たちは医療における人工知能の普及を目の当たりにしている。 しかし、この領域におけるディープラーニング(DL)の進歩のほとんどは、他のモダリティを無視して、単調なデータのみを考慮する。 診断、予後、治療決定を支援するのに必要なマルチモーダルな解釈。 本研究では,図表や画像データを用いてモダリティ再構成とサンプル分類を共同で学習する,設計による説明が可能な深層アーキテクチャを提案する。 この決定の説明は、決定に最も寄与する各モダリティの特徴を明らかにする反事実予測と、モダリティの重要性を示す定量的スコアをシミュレートする潜在シフトを適用することで計算される。 我々は、重篤な結果のリスクのある患者の早期発見のためのマルチモーダルデータを含むAIforCOVIDデータセットを用いて、COVID-19パンデミックの文脈でのアプローチを検証する。 その結果,提案手法は分類性能を劣化させることなく意味のある説明を提供することがわかった。

We are witnessing a widespread adoption of artificial intelligence in healthcare. However, most of the advancements in deep learning (DL) in this area consider only unimodal data, neglecting other modalities. Their multimodal interpretation necessary for supporting diagnosis, prognosis and treatment decisions. In this work we present a deep architecture, explainable by design, which jointly learns modality reconstructions and sample classifications using tabular and imaging data. The explanation of the decision taken is computed by applying a latent shift that, simulates a counterfactual prediction revealing the features of each modality that contribute the most to the decision and a quantitative score indicating the modality importance. We validate our approach in the context of COVID-19 pandemic using the AIforCOVID dataset, which contains multimodal data for the early identification of patients at risk of severe outcome. The results show that the proposed method provides meaningful explanations without degrading the classification performance.
翻訳日:2023-01-02 15:29:04 公開日:2022-12-28
# Wormhole MAML:Gluedパラメータ空間におけるメタラーニング

Wormhole MAML: Meta-Learning in Glued Parameter Space ( http://arxiv.org/abs/2212.14094v1 )

ライセンス: Link先を確認
Chih-Jung Tracy Chang, Yuan Gao, Beicheng Lou(参考訳) 本稿では,モデルに依存しないメタラーニングの新たなバリエーションを紹介し,内部ループ適応に余分な乗法パラメータを導入する。 私たちのバリエーションは、内部ループ適応のためのパラメータ空間のショートカットを生成し、高度に制御可能な方法でモデル表現性を高めます。 理論的にも数値的にも、我々の変動が相反する勾配の問題を緩和し、トレーニングダイナミクスを改善することを示します。 我々は,しきい値比較のための玩具分類問題,ウェーブレット変換の回帰問題,mnistの分類問題など,3つの異なる問題について実験を行った。 また、より広範な問題にメソッドを一般化する方法についても論じる。

In this paper, we introduce a novel variation of model-agnostic meta-learning, where an extra multiplicative parameter is introduced in the inner-loop adaptation. Our variation creates a shortcut in the parameter space for the inner-loop adaptation and increases model expressivity in a highly controllable manner. We show both theoretically and numerically that our variation alleviates the problem of conflicting gradients and improves training dynamics. We conduct experiments on 3 distinctive problems, including a toy classification problem for threshold comparison, a regression problem for wavelet transform, and a classification problem on MNIST. We also discuss ways to generalize our method to a broader class of problems.
翻訳日:2023-01-02 15:28:47 公開日:2022-12-28
# ロバストランキング解説

Robust Ranking Explanations ( http://arxiv.org/abs/2212.14106v1 )

ライセンス: Link先を確認
Chao Chen, Chenghua Guo, Guixiang Ma, Xi Zhang, Sihong Xie(参考訳) グラディエントに基づく説明は説明可能なディープネットワークの基礎であるが、敵の攻撃に弱いことが示されている。 しかし、既存の研究は、人間にとって直感に反しうる$\ell_p$-normに基づいて、説明の堅牢性を測定する。 そこで我々は,より適切な説明頑健度指標として,ランキングの厚みについて提案する。 次に,説明ランキングを操作するための新たな攻撃目標を提案する。 計算可能性を維持しながらランキングベースの攻撃を緩和するため、高価なサンプリングと統合を伴う厚さの境界線を導出する。 グラデーションベース攻撃の収束を多目的法を用いて解析し,説明ロバスト性が厚みメトリックで測定可能であることを確認する。 提案手法の優越性を証明するために,ネットワークアーキテクチャや多種多様なデータセットについて実験を行ったが,広く受け入れられているヘッセン型曲率平滑化手法は,本手法ほど頑健ではない。

Gradient-based explanation is the cornerstone of explainable deep networks, but it has been shown to be vulnerable to adversarial attacks. However, existing works measure the explanation robustness based on $\ell_p$-norm, which can be counter-intuitive to humans, who only pay attention to the top few salient features. We propose explanation ranking thickness as a more suitable explanation robustness metric. We then present a new practical adversarial attacking goal for manipulating explanation rankings. To mitigate the ranking-based attacks while maintaining computational feasibility, we derive surrogate bounds of the thickness that involve expensive sampling and integration. We use a multi-objective approach to analyze the convergence of a gradient-based attack to confirm that the explanation robustness can be measured by the thickness metric. We conduct experiments on various network architectures and diverse datasets to prove the superiority of the proposed methods, while the widely accepted Hessian-based curvature smoothing approaches are not as robust as our method.
翻訳日:2023-01-02 15:28:35 公開日:2022-12-28
# 対向的摂動攻撃による強化学習の安全性保証

Certifying Safety in Reinforcement Learning under Adversarial Perturbation Attacks ( http://arxiv.org/abs/2212.14115v1 )

ライセンス: Link先を確認
Junlin Wu, Hussein Sibai and Yevgeniy Vorobeychik(参考訳) 関数近似は、画像などの高次元入力を持つ環境において、そのような入力を直接低レベル制御にマッピングする強化学習(RL)技術の適用において、顕著な進歩を可能にしている。 それでも、これらは小さな逆入力摂動に弱いことが証明されている。 その結果、対向的摂動に対するエンドツーエンドRLの堅牢性の改善や証明のための多くのアプローチが出現し、累積的な報酬に焦点が当てられている。 しかし、逆境シナリオにしばしば関心を持つのは、安全性と効率を合わせた全体的な報酬ではなく、安全性などの基本的な特性の侵害である。 さらに、安全性のような性質は、エンドツーエンドのポリシーに対する高次元の生入力よりも、真の状態に関してのみ定義できる。 決定論的部分観測可能なマルコフ決定過程 (POMDP) において, 安全性制約による累積報酬の最大化を目標として, RL を分解する。 そこで我々は,POMDPの真の状態が学習時にわかっているという仮定を付加した,部分教師付き強化学習(PSRL)フレームワークを提案する。 逆入力摂動下でのPSRLポリシーの安全性を検証するための最初のアプローチと、PSRLを直接利用する2つの逆トレーニングアプローチを提案する。 本実験は, 対人環境における安全性の証明のための提案手法の有効性と, PSRLフレームワークと対人トレーニングの併用により, 高名目報酬と実状態の高品質な予測を保ちながら, 認証安全性の向上を図ったものである。

Function approximation has enabled remarkable advances in applying reinforcement learning (RL) techniques in environments with high-dimensional inputs, such as images, in an end-to-end fashion, mapping such inputs directly to low-level control. Nevertheless, these have proved vulnerable to small adversarial input perturbations. A number of approaches for improving or certifying robustness of end-to-end RL to adversarial perturbations have emerged as a result, focusing on cumulative reward. However, what is often at stake in adversarial scenarios is the violation of fundamental properties, such as safety, rather than the overall reward that combines safety with efficiency. Moreover, properties such as safety can only be defined with respect to true state, rather than the high-dimensional raw inputs to end-to-end policies. To disentangle nominal efficiency and adversarial safety, we situate RL in deterministic partially-observable Markov decision processes (POMDPs) with the goal of maximizing cumulative reward subject to safety constraints. We then propose a partially-supervised reinforcement learning (PSRL) framework that takes advantage of an additional assumption that the true state of the POMDP is known at training time. We present the first approach for certifying safety of PSRL policies under adversarial input perturbations, and two adversarial training approaches that make direct use of PSRL. Our experiments demonstrate both the efficacy of the proposed approach for certifying safety in adversarial environments, and the value of the PSRL framework coupled with adversarial training in improving certified safety while preserving high nominal reward and high-quality predictions of true state.
翻訳日:2023-01-02 15:28:19 公開日:2022-12-28
# 臨床研究勧告を改善するための知識グラフ埋め込みのカスタマイズ

Customizing Knowledge Graph Embedding to Improve Clinical Study Recommendation ( http://arxiv.org/abs/2212.14102v1 )

ライセンス: Link先を確認
Xiong Liu, Iya Khalil, Murthy Devarakonda(参考訳) 知識グラフ埋め込みを用いた臨床試験から知識を推定することは、新たな分野である。 しかし、異なるユースケース向けにグラフ埋め込みをカスタマイズすることは、依然として大きな課題である。 埋め込みの学習にユーザの好みを取り入れてグラフ埋め込みをカスタマイズするアルゴリズムフレームワークであるCustom2vecを提案する。 独自の情報検索手法の検証結果から得られたカスタムノードとリンクを追加することで、ユーザの好みをキャプチャする。 本稿では,ユーザのカスタムアノテーションを取り入れつつ,元のネットワーク構造を保存するための共同学習目標を提案する。 カスタムトレーニングは、例えばリンク予測タスクにおいて、ユーザ期待の予測を改善すると仮定する。 本研究は,非小細胞肺癌(NSCLC)に関する臨床試験におけるCustom2vecの有効性を,PD-1阻害剤を評価・比較する免疫オンコロジー試験の推奨と,新しい治療法と治療基準との比較試験の2つのシナリオで示す。 その結果、custom2vecトレーニングは従来のトレーニング方法よりも優れたパフォーマンスを達成できた。 我々のアプローチは知識グラフの埋め込みをカスタマイズし、より正確なレコメンデーションと予測を可能にする新しい方法である。

Inferring knowledge from clinical trials using knowledge graph embedding is an emerging area. However, customizing graph embeddings for different use cases remains a significant challenge. We propose custom2vec, an algorithmic framework to customize graph embeddings by incorporating user preferences in training the embeddings. It captures user preferences by adding custom nodes and links derived from manually vetted results of a separate information retrieval method. We propose a joint learning objective to preserve the original network structure while incorporating the user's custom annotations. We hypothesize that the custom training improves user-expected predictions, for example, in link prediction tasks. We demonstrate the effectiveness of custom2vec for clinical trials related to non-small cell lung cancer (NSCLC) with two customization scenarios: recommending immuno-oncology trials evaluating PD-1 inhibitors and exploring similar trials that compare new therapies with a standard of care. The results show that custom2vec training achieves better performance than the conventional training methods. Our approach is a novel way to customize knowledge graph embeddings and enable more accurate recommendations and predictions.
翻訳日:2023-01-02 15:21:28 公開日:2022-12-28
# Hungry Hungry Hippos: 状態空間モデルによる言語モデリングを目指して

Hungry Hungry Hippos: Towards Language Modeling with State Space Models ( http://arxiv.org/abs/2212.14052v1 )

ライセンス: Link先を確認
Tri Dao, Daniel Y. Fu, Khaled K. Saab, Armin W. Thomas, Atri Rudra, Christopher R\'e(参考訳) 状態空間モデル (SSM) は、いくつかのモダリティにおいて最先端のシーケンスモデリング性能を示しているが、言語モデリングではあまり注目されていない。 さらに、二乗ではなく列長でほぼ線形にスケーリングしても、ハードウェア使用率の低さから、ssmはトランスフォーマーよりも遅い。 本稿では,言語モデリングにおけるssmと注意の間の表現性ギャップの理解と,ssmと注意の間のハードウェア障壁の低減について述べる。 まず,SSMと注意のギャップを理解するために,合成言語モデリングタスクを用いる。 既存のssmには2つの機能があります。シーケンス内の以前のトークンのリコールと、シーケンス全体のトークンの比較です。 言語モデリングへの影響を理解するため,これらの機能に特化して設計された新しいSSM層H3を提案する。 H3は合成言語に注意を向け、OpenWebText上のTransformersの0.4 PPL以内である。 さらに、2つの注意層を保持する125mパラメータh3アテンションハイブリッドモデルは、openwebtextのトランスフォーマーを1.0 pplで驚くほど上回っている。 次に,最新のハードウェア上でのssmトレーニングの効率を向上させるため,flashconvを提案する。 FlashConvは8Kまでのシーケンスの効率を改善するために融合ブロックFFTアルゴリズムを使用し、SSMの繰り返し特性を利用して長いシーケンスにスケールする新しいステートパスアルゴリズムを導入した。 FlashConvは、長距離アリーナベンチマークで2$\times$スピードアップし、トランスフォーマーよりも1.6$\times$のテキストを生成することができる。 flashconvを使用すると、最大1.3bのパラメータを持つハイブリッドh3-attention言語モデルにスケールし、最初の結果が期待できる。

State space models (SSMs) have demonstrated state-of-the-art sequence modeling performance in some modalities, but underperform attention in language modeling. Moreover, despite scaling nearly linearly in sequence length instead of quadratically, SSMs are still slower than Transformers due to poor hardware utilization. In this paper, we make progress on understanding the expressivity gap between SSMs and attention in language modeling, and on reducing the hardware barrier between SSMs and attention. First, we use synthetic language modeling tasks to understand the gap between SSMs and attention. We find that existing SSMs struggle with two capabilities: recalling earlier tokens in the sequence and comparing tokens across the sequence. To understand the impact on language modeling, we propose a new SSM layer, H3, that is explicitly designed for these abilities. H3 matches attention on the synthetic languages and comes within 0.4 PPL of Transformers on OpenWebText. Furthermore, a hybrid 125M-parameter H3-attention model that retains two attention layers surprisingly outperforms Transformers on OpenWebText by 1.0 PPL. Next, to improve the efficiency of training SSMs on modern hardware, we propose FlashConv. FlashConv uses a fused block FFT algorithm to improve efficiency on sequences up to 8K, and introduces a novel state passing algorithm that exploits the recurrent properties of SSMs to scale to longer sequences. FlashConv yields 2$\times$ speedup on the long-range arena benchmark and allows hybrid language models to generate text 1.6$\times$ faster than Transformers. Using FlashConv, we scale hybrid H3-attention language models up to 1.3B parameters on the Pile and find promising initial results, achieving lower perplexity than Transformers and outperforming Transformers in zero- and few-shot learning on a majority of tasks in the SuperGLUE benchmark.
翻訳日:2023-01-02 15:20:21 公開日:2022-12-28
# 深層強化学習によるCodenamesスパイマスターの自動化

Towards automating Codenames spymasters with deep reinforcement learning ( http://arxiv.org/abs/2212.14104v1 )

ライセンス: Link先を確認
Sherman Siu(参考訳) ほとんどの強化学習研究は競争ゲームを中心にしているが、協調型マルチプレイヤーゲームやテキストベースのゲームに適用する作業はほとんど行われていない。 Codenamesは非対称な協調処理と自然言語処理の両方を含むボードゲームであり、RL研究を進めるための優れた候補となっている。 私の知る限り、この研究は初めてMarkov Decision ProcessとしてCodenameを定式化し、SAC、PPO、A2Cといったよく知られた強化学習アルゴリズムを環境に適用しました。 上記のアルゴリズムはいずれもコードネーム環境には収束しないが、ボードサイズが小さい場合を除き、クリックピクセルと呼ばれる単純な環境にも収束しない。

Although most reinforcement learning research has centered on competitive games, little work has been done on applying it to co-operative multiplayer games or text-based games. Codenames is a board game that involves both asymmetric co-operation and natural language processing, which makes it an excellent candidate for advancing RL research. To my knowledge, this work is the first to formulate Codenames as a Markov Decision Process and apply some well-known reinforcement learning algorithms such as SAC, PPO, and A2C to the environment. Although none of the above algorithms converge for the Codenames environment, neither do they converge for a simplified environment called ClickPixel, except when the board size is small.
翻訳日:2023-01-02 15:12:17 公開日:2022-12-28
# LDAモデルにおけるトピック数の選択 -選択基準のモンテカルロ比較

Choosing the Number of Topics in LDA Models -- A Monte Carlo Comparison of Selection Criteria ( http://arxiv.org/abs/2212.14074v1 )

ライセンス: Link先を確認
Victor Bystrov, Viktoriia Naboka, Anna Staszewska-Bystrova, Peter Winker(参考訳) LDAモデルにおけるトピック数の選択は、別のアプローチが提案されているため難しい課題であると考えられる。 最近開発された特異ベイズ情報基準(sBIC)の性能を評価し,代替モデル選択基準の性能と比較した。 sBICは、特異統計モデルに実装できる標準BICの一般化である。 この比較はモンテカルロシミュレーションに基づいており、トピックの数、ドキュメントの数、コーパス内のドキュメントのサイズなどによって異なるいくつかの代替設定で実施されている。 適切なトピック数を考慮に入れた異なる基準を用いて、パフォーマンスを測定し、DGPから関連するトピックが特定されるかどうかを判断する。 アプリケーションにおけるLDAモデル選択のための実用的なレコメンデーションが導出される。

Selecting the number of topics in LDA models is considered to be a difficult task, for which alternative approaches have been proposed. The performance of the recently developed singular Bayesian information criterion (sBIC) is evaluated and compared to the performance of alternative model selection criteria. The sBIC is a generalization of the standard BIC that can be implemented to singular statistical models. The comparison is based on Monte Carlo simulations and carried out for several alternative settings, varying with respect to the number of topics, the number of documents and the size of documents in the corpora. Performance is measured using different criteria which take into account the correct number of topics, but also whether the relevant topics from the DGPs are identified. Practical recommendations for LDA model selection in applications are derived.
翻訳日:2023-01-02 15:12:03 公開日:2022-12-28
# 深部画像埋め込みクラスタリングはヘテロジニアスな表データに有効か?

Are Deep Image Embedding Clustering Methods Effective for Heterogeneous Tabular Data? ( http://arxiv.org/abs/2212.14111v1 )

ライセンス: Link先を確認
Sakib Abrar and Manar D. Samad(参考訳) 文学におけるディープラーニングの手法は、画像データセット上で常にベンチマークされ、すべてのデータ問題に取り組むと仮定される。 残念なことに、画像学習用に設計されたアーキテクチャは、データ固有の学習要件を考慮せずに、非画像データに対して準備や最適化ができていないことが多い。 本稿では,深部画像埋め込みクラスタリング手法が不均質な表型データセットに対して等しく有効であるとは言い難い,データ中心の考え方を述べる。 本稿では,画像データセットに対して提案した6つの最先端ベースライン手法を用いて,7つの表層データセットの深層埋め込みクラスタリングに関する最初の研究を行う。 その結果,従来のグラフデータのクラスタリングは8つの手法のうち2位であり,最も深いクラスタリングベースラインよりも優れていることがわかった。 私たちの観察は、従来の表型データの機械学習は依然としてディープラーニングに対する競争的アプローチである、という最近の文献と一致しています。 多くのディープラーニング研究者にとって驚くべきことだが、従来のクラスタリング手法は表形式のデータに対して競争力のあるベースラインになり得る。 したがって、画像学習のためのディープラーニング手法は、データ固有のコントラストや学習要件を考慮せずに、表データに対して公平あるいは適切なベースラインであるとは限らない。

Deep learning methods in the literature are invariably benchmarked on image data sets and then assumed to work on all data problems. Unfortunately, architectures designed for image learning are often not ready or optimal for non-image data without considering data-specific learning requirements. In this paper, we take a data-centric view to argue that deep image embedding clustering methods are not equally effective on heterogeneous tabular data sets. This paper performs one of the first studies on deep embedding clustering of seven tabular data sets using six state-of-the-art baseline methods proposed for image data sets. Our results reveal that the traditional clustering of tabular data ranks second out of eight methods and is superior to most deep embedding clustering baselines. Our observation is in line with the recent literature that traditional machine learning of tabular data is still a competitive approach against deep learning. Although surprising to many deep learning researchers, traditional clustering methods can be competitive baselines for tabular data, and outperforming these baselines remains a challenge for deep embedding clustering. Therefore, deep learning methods for image learning may not be fair or suitable baselines for tabular data without considering data-specific contrasts and learning requirements.
翻訳日:2023-01-02 15:01:24 公開日:2022-12-28
# 強化学習ポリシーアルゴリズムを用いたシーケンス-シーケンスnlpモデルの改良

Improving a sequence-to-sequence nlp model using a reinforcement learning policy algorithm ( http://arxiv.org/abs/2212.14117v1 )

ライセンス: Link先を確認
Jabri Ismail, Aboulbichr Ahmed and El ouaazizi Aziza(参考訳) 現在、現在の対話生成(chatbots)のニューラルネットワークモデルは、チャットエージェントの回答を生成することに非常に有望である。 しかし、彼らは発話を1度ずつ予測し、将来の結果に対する彼らの影響を無視している。 対話の今後の方向性をモデル化することは、一貫性のある興味深い対話を生成するために不可欠であり、強化学習に依存する従来のnlp対話モデルに繋がる必要性がある。 本稿では,チャットボット対話における今後の報酬を予測するために,深層強化学習を用いてこれらの目標を組み合わせる方法について述べる。 このモデルは、2つの仮想エージェント間の会話をシミュレートし、非公式性、コヒーレンス、応答の単純さ(前方の関数に関連する)の3つの有用な会話特性を示すシーケンスを報酬するポリシー勾配法を用いる。 我々は,人間の多様性,長さ,複雑さに基づいてモデルを評価する。 対話シミュレーションでは,提案モデルがよりインタラクティブな応答を生成し,より持続的な会話を促すことを示した。 本研究は,対話の長期的成功に基づくニューラル・会話モデルの構築に向けた予備的ステップを記念する。

Nowadays, the current neural network models of dialogue generation(chatbots) show great promise for generating answers for chatty agents. But they are short-sighted in that they predict utterances one at a time while disregarding their impact on future outcomes. Modelling a dialogue's future direction is critical for generating coherent, interesting dialogues, a need that has led traditional NLP dialogue models that rely on reinforcement learning. In this article, we explain how to combine these objectives by using deep reinforcement learning to predict future rewards in chatbot dialogue. The model simulates conversations between two virtual agents, with policy gradient methods used to reward sequences that exhibit three useful conversational characteristics: the flow of informality, coherence, and simplicity of response (related to forward-looking function). We assess our model based on its diversity, length, and complexity with regard to humans. In dialogue simulation, evaluations demonstrated that the proposed model generates more interactive responses and encourages a more sustained successful conversation. This work commemorates a preliminary step toward developing a neural conversational model based on the long-term success of dialogues.
翻訳日:2023-01-02 15:01:04 公開日:2022-12-28
# 音符位置認識注意機構に基づく歌声合成

Singing Voice Synthesis Based on a Musical Note Position-Aware Attention Mechanism ( http://arxiv.org/abs/2212.13703v1 )

ライセンス: Link先を確認
Yukiya Hono, Kei Hashimoto, Yoshihiko Nankaku, Keiichi Tokuda(参考訳) 本稿では,歌声合成(SVS)のための音符位置認識機構を備えた新しいシーケンス・ツー・シーケンス(seq2seq)モデルを提案する。 音響及び時間的モデリングを同時に行うSeq2seqモデリングアプローチは魅力的である。 しかし、歌唱音声の時間的モデリングが難しいため、エンコーダデコーダベースのモデルを持つ最近の多くのSVSシステムは、追加モジュールによって生成される持続時間情報に明示的に依存している。 注意機構を持つseq2seqモデルを用いた同時モデリングを行う研究もあるが、時間的モデリングに対するロバスト性は不十分である。 提案するアテンションメカニズムは,楽譜のリズムを考慮したアテンション重み推定を行う。 また,歌声のモデル化性能を向上させるための手法もいくつか紹介されている。 実験結果から,提案モデルが自然性および時間的ロバスト性の両方において有効であることが示唆された。

This paper proposes a novel sequence-to-sequence (seq2seq) model with a musical note position-aware attention mechanism for singing voice synthesis (SVS). A seq2seq modeling approach that can simultaneously perform acoustic and temporal modeling is attractive. However, due to the difficulty of the temporal modeling of singing voices, many recent SVS systems with an encoder-decoder-based model still rely on explicitly on duration information generated by additional modules. Although some studies perform simultaneous modeling using seq2seq models with an attention mechanism, they have insufficient robustness against temporal modeling. The proposed attention mechanism is designed to estimate the attention weights by considering the rhythm given by the musical score. Furthermore, several techniques are also introduced to improve the modeling performance of the singing voice. Experimental results indicated that the proposed model is effective in terms of both naturalness and robustness of timing.
翻訳日:2022-12-29 16:30:39 公開日:2022-12-28
# Anxolotl, anxiety Companion App -- ストレス検出

Anxolotl, an Anxiety Companion App -- Stress Detection ( http://arxiv.org/abs/2212.14006v1 )

ライセンス: Link先を確認
Nuno Gomes, Matilde Pato, Pedro Santos, Andr\'e Louren\c{c}o, Louren\c{c}o Rodrigues(参考訳) ストレスは、過小評価できない人々の生活に大きな影響を与えます。 それは良いことだが、人間が新しい状況や異なる状況に適応するのに役立っているため、適切に扱わないと有害になり、慢性的なストレスにつながる可能性がある。 本研究の目的は, 実生活で使用できるストレスモニタリングソリューションを開発し, 積極的手法でこの課題に取り組むことである。 smileデータセットはチームanxolotlに提供され、必要なのは堅牢なモデルを開発することだけだった。 我々はPythonの分類のための教師付き学習モデルを開発し、64.1%の精度と54.96%のf1スコアを示した。 結果として得られたソリューションは堅牢性テストであり、実行間のばらつきが低く、将来anxolotlアプリに統合される可能性の大きなポイントだった。

Stress has a great effect on people's lives that can not be understated. While it can be good, since it helps humans to adapt to new and different situations, it can also be harmful when not dealt with properly, leading to chronic stress. The objective of this paper is developing a stress monitoring solution, that can be used in real life, while being able to tackle this challenge in a positive way. The SMILE data set was provided to team Anxolotl, and all it was needed was to develop a robust model. We developed a supervised learning model for classification in Python, presenting the final result of 64.1% in accuracy and a f1-score of 54.96%. The resulting solution stood the robustness test, presenting low variation between runs, which was a major point for it's possible integration in the Anxolotl app in the future.
翻訳日:2022-12-29 16:29:54 公開日:2022-12-28
# ロボットにおけるアウト・オブ・ディストリビューションデータのシステムレベルビュー

A System-Level View on Out-of-Distribution Data in Robotics ( http://arxiv.org/abs/2212.14020v1 )

ライセンス: Link先を確認
Rohan Sinha, Apoorva Sharma, Somrita Banerjee, Thomas Lew, Rachel Luo, Spencer M. Richards, Yixiao Sun, Edward Schmerling, Marco Pavone(参考訳) テスト条件がトレーニングデータと異なる場合、いわゆるアウト・オブ・ディストリビューション(OOD)入力は、現代のロボット自律スタックにおけるブラックボックス学習コンポーネントの信頼性をマージする。 したがって、OODデータを扱うことは、信頼できる学習可能なオープンワールドの自律性への道のりにおいて重要な課題である。 本稿では,データ駆動型ロボットシステムにおけるOODデータとその関連課題を解明し,学習モデルに対するOODデータの影響を研究するMLコミュニティの新たなパラダイムに関連付けることを目的とする。 我々はロボット工学者として、ood条件下でタスクを実行するロボットのシステムレベルの能力について判断すべきであると主張する。 我々は、このシステムレベルのOOD問題に関する重要な研究課題を強調し、安全で信頼性の高い学習可能な自律性に向けた将来の研究を導く。

When testing conditions differ from those represented in training data, so-called out-of-distribution (OOD) inputs can mar the reliability of black-box learned components in the modern robot autonomy stack. Therefore, coping with OOD data is an important challenge on the path towards trustworthy learning-enabled open-world autonomy. In this paper, we aim to demystify the topic of OOD data and its associated challenges in the context of data-driven robotic systems, drawing connections to emerging paradigms in the ML community that study the effect of OOD data on learned models in isolation. We argue that as roboticists, we should reason about the overall system-level competence of a robot as it performs tasks in OOD conditions. We highlight key research questions around this system-level view of OOD problems to guide future research toward safe and reliable learning-enabled autonomy.
翻訳日:2022-12-29 16:29:40 公開日:2022-12-28
# ロバスト化マルコウィッツ

Robustifying Markowitz ( http://arxiv.org/abs/2212.13996v1 )

ライセンス: Link先を確認
Wolfgang Karl H\"ardle and Yegor Klochkov and Alla Petukhina and Nikita Zhivotovskiy(参考訳) マーコウィッツ平均分散ポートフォリオは、サンプル平均と共分散を入力パラメータとして持つ。 推定誤差のため、サンプル外では性能が悪く、入力パラメータの変更に対する感度も高く、極端な重みを経験する。 金融時系列のヘビーテールの特徴は、結果として相当な取引コストを生み出す重みの不安定な変動の原因である。 重み付けの堅牢化では,グローバル最小のmarkowitzポートフォリオのコストと重み付けを安定化するためのツールボックスを提案する。 予測勾配降下(PGD)手法を用いることで、共分散演算子の全体の推定と逆転を回避し、勾配降下増加のロバストな推定に集中する。 ロバスト統計の現代的なツールを使用して、重みの中央値に基づくほぼガウス的性質を持つ計算効率の良い推定器を構築する。 この強固なマルコウィッツのアプローチは、株式市場に関する実証的研究によって確認される。 我々は、ロバスト化されたポートフォリオが縮小ベースや制約付きポートフォリオと比べて最も低いターンオーバに達することを実証し、サンプル外のパフォーマンスを保ち、またはわずかに改善する。

Markowitz mean-variance portfolios with sample mean and covariance as input parameters feature numerous issues in practice. They perform poorly out of sample due to estimation error, they experience extreme weights together with high sensitivity to change in input parameters. The heavy-tail characteristics of financial time series are in fact the cause for these erratic fluctuations of weights that consequently create substantial transaction costs. In robustifying the weights we present a toolbox for stabilizing costs and weights for global minimum Markowitz portfolios. Utilizing a projected gradient descent (PGD) technique, we avoid the estimation and inversion of the covariance operator as a whole and concentrate on robust estimation of the gradient descent increment. Using modern tools of robust statistics we construct a computationally efficient estimator with almost Gaussian properties based on median-of-means uniformly over weights. This robustified Markowitz approach is confirmed by empirical studies on equity markets. We demonstrate that robustified portfolios reach the lowest turnover compared to shrinkage-based and constrained portfolios while preserving or slightly improving out-of-sample performance.
翻訳日:2022-12-29 16:29:15 公開日:2022-12-28
# reramクロスバーアレイの熱加熱:挑戦と解決法

Thermal Heating in ReRAM Crossbar Arrays: Challenges and Solutions ( http://arxiv.org/abs/2212.13707v1 )

ライセンス: Link先を確認
Kamilya Smagulova, Mohammed E. Fouda and Ahmed Eltawil(参考訳) ディープラーニングベースのアプリケーションの人気が高まると、ニューラルネットワークの敵攻撃に対する脆弱性が生じる。 言い換えれば、入力データのほとんど認識できない変化は、ニューラルネットワークの出力エラーにつながり、セキュリティリスクを伴う決定に関わるアプリケーションでの利用を妨げる。 これまで多くの研究が、さまざまなタイプの敵攻撃に対して最も一般的に使用される構成である畳み込みニューラルネットワーク(cnns)を十分に評価してきた。 さらに、最近の研究は、異なるニューラルネットワークモデルにわたるいくつかの逆例の転送可能性を示している。 本稿では、CIFAR-10データセットの画像分類問題に対するSpinalNetベースのニューラルネットワークやコンパクト畳み込み変換器(CCT)などの新しいモデルの堅牢性を検討した。 各アーキテクチャは4つのホワイトボックス攻撃と3つのブラックボックス攻撃に対してテストされた。 vggモデルやspinnernetモデルとは異なり、注意に基づくcct構成は、強固なロバスト性と敵の例に対する脆弱性の間の大きな範囲を示した。 最終的に,vgg,vggスパイナルネットおよびcct 7/3x1モデル間の移動性について検討した。 その結果,特定のモデルに対する攻撃の有効性は高いものの,他のモデルへの移動性は保証されないことがわかった。

Increasing popularity of deep-learning-powered applications raises the issue of vulnerability of neural networks to adversarial attacks. In other words, hardly perceptible changes in input data lead to the output error in neural network hindering their utilization in applications that involve decisions with security risks. A number of previous works have already thoroughly evaluated the most commonly used configuration - Convolutional Neural Networks (CNNs) against different types of adversarial attacks. Moreover, recent works demonstrated transferability of the some adversarial examples across different neural network models. This paper studied robustness of the new emerging models such as SpinalNet-based neural networks and Compact Convolutional Transformers (CCT) on image classification problem of CIFAR-10 dataset. Each architecture was tested against four White-box attacks and three Black-box attacks. Unlike VGG and SpinalNet models, attention-based CCT configuration demonstrated large span between strong robustness and vulnerability to adversarial examples. Eventually, the study of transferability between VGG, VGG-inspired SpinalNet and pretrained CCT 7/3x1 models was conducted. It was shown that despite high effectiveness of the attack on the certain individual model, this does not guarantee the transferability to other models.
翻訳日:2022-12-29 16:24:04 公開日:2022-12-28
# PersonaSAGE: マルチペソナグラフニューラルネットワーク

PersonaSAGE: A Multi-Persona Graph Neural Network ( http://arxiv.org/abs/2212.13709v1 )

ライセンス: Link先を確認
Gautam Choudhary, Iftikhar Ahamath Burhanuddin, Eunyee Koh, Fan Du, and Ryan A. Rossi(参考訳) グラフニューラルネットワーク(GNN)は、多くの重要な下流アプリケーションにおける最先端のパフォーマンスのため、近年ますます重要になっている。 既存のGNNは主に単一ノード表現の学習に重点を置いているが、ノードは異なるコンテキストで多文の振る舞いを示すことが多い。 本研究では,ペルソナベースのグラフニューラルネットワークフレームワークであるpersonasageを開発し,グラフの各ノードに対する複数のペルソナベースの埋め込みを学習する。 このような非交叉表現は単一の埋め込みよりも解釈可能で有用である。 さらに、PersonaSAGEはグラフ内の各ノードに対して適切なペルソナ埋め込みのセットを学習し、各ノードに割り当てられたペルソナ埋め込みの数が異なる可能性がある。 フレームワークは十分に柔軟であり、一般的な設計はドメインに合うように学習された埋め込みを広く適用するのに役立つ。 私たちは、公開利用可能なベンチマークデータセットを使用して、このアプローチとさまざまなベースラインを評価します。 この実験は、ノード分類に競争力を保ちながら平均15%の利得を達成するリンク予測を含む、様々な重要なタスクに対するペルソナセージの有効性を示す。 最後に、データ管理プラットフォームにおけるさまざまなエンティティタイプをパーソナライズするパーソナライズのためのケーススタディにより、PersonaSAGEの有用性を実証する。

Graph Neural Networks (GNNs) have become increasingly important in recent years due to their state-of-the-art performance on many important downstream applications. Existing GNNs have mostly focused on learning a single node representation, despite that a node often exhibits polysemous behavior in different contexts. In this work, we develop a persona-based graph neural network framework called PersonaSAGE that learns multiple persona-based embeddings for each node in the graph. Such disentangled representations are more interpretable and useful than a single embedding. Furthermore, PersonaSAGE learns the appropriate set of persona embeddings for each node in the graph, and every node can have a different number of assigned persona embeddings. The framework is flexible enough and the general design helps in the wide applicability of the learned embeddings to suit the domain. We utilize publicly available benchmark datasets to evaluate our approach and against a variety of baselines. The experiments demonstrate the effectiveness of PersonaSAGE for a variety of important tasks including link prediction where we achieve an average gain of 15% while remaining competitive for node classification. Finally, we also demonstrate the utility of PersonaSAGE with a case study for personalized recommendation of different entity types in a data management platform.
翻訳日:2022-12-29 16:23:47 公開日:2022-12-28
# 深層学習を用いたtwitter上の食欲障害コンテンツの解明

RevealED: Uncovering Pro-Eating Disorder Content on Twitter Using Deep Learning ( http://arxiv.org/abs/2212.13949v1 )

ライセンス: Link先を確認
Jonathan Feldman(参考訳) 新型コロナウイルスのパンデミックにより、摂食障害と診断され、摂食障害で入院した青年が大幅に増加した。 この大きな成長は、部分的にはパンデミックのストレスによるものだが、ソーシャルメディアを通じて摂食障害を促進するコンテンツへの露出の増加にも起因している。 本研究では,画像データのみに基づいて,ソーシャルメディア投稿が摂食障害を促進するかどうかを判断する深層学習モデルの構築を目的とした。 無関係なハッシュタグからのツイートとともに、摂食障害を促進するために記録されたハッシュタグからのつぶやきが収集された。 先入観の後、これらの画像は前食障害とラベル付けされ、どのTwitterハッシュタグから取り除かれたかに基づいていない。 いくつかのディープラーニングモデルがスクレイピングデータセットでトレーニングされ、その正確性、f1スコア、正確性、リコールに基づいて評価された。 最終的に、視覚トランスフォーマーモデルが最も正確であると判断され、f1スコア0.877、テストセットでの精度86.7%を達成した。 このモデルは「#selfie」から抽出されたラベルなしのtwitter画像データに適用され、夏期にピークに達した摂食障害コンテンツの相対的増加の季節変動を明らかにした。 これらの変動は季節だけでなく、コビッドウイルスのパンデミックのようなストレス要因にも対応している。 さらに,twitterの画像データから,食後障害コンテンツの相対的量は過去5年間で着実に増加しており,今後も増加傾向にあることが示唆された。

The Covid-19 pandemic induced a vast increase in adolescents diagnosed with eating disorders and hospitalized due to eating disorders. This immense growth stemmed partially from the stress of the pandemic but also from increased exposure to content that promotes eating disorders via social media, which, within the last decade, has become plagued by pro-eating disorder content. This study aimed to create a deep learning model capable of determining whether a given social media post promotes eating disorders based solely on image data. Tweets from hashtags that have been documented to promote eating disorders along with tweets from unrelated hashtags were collected. After prepossessing, these images were labeled as either pro-eating disorder or not based on which Twitter hashtag they were scraped from. Several deep-learning models were trained on the scraped dataset and were evaluated based on their accuracy, F1 score, precision, and recall. Ultimately, the vision transformer model was determined to be the most accurate, attaining an F1 score of 0.877 and an accuracy of 86.7% on the test set. The model, which was applied to unlabeled Twitter image data scraped from "#selfie", uncovered seasonal fluctuations in the relative abundance of pro-eating disorder content, which reached its peak in the summertime. These fluctuations correspond not only to the seasons, but also to stressors, such as the Covid-19 pandemic. Moreover, the Twitter image data indicated that the relative amount of pro-eating disorder content has been steadily rising over the last five years and is likely to continue increasing in the future.
翻訳日:2022-12-29 16:23:29 公開日:2022-12-28
# 機械学習における永続化演算子

Persistence-based operators in machine learning ( http://arxiv.org/abs/2212.13985v1 )

ライセンス: Link先を確認
Mattia G. Bergomi, Massimo Ferri, Alessandro Mella, Pietro Vertechi(参考訳) ニューラルネットワークは、特定のタスクを達成するために、複雑で有能なデータ特徴を学習することができる。 スペクトルの反対側では、トポロジカルデータ分析のような数学的に基礎付けられた手法により、ユーザはデータ制約や対称性を十分に認識した分析パイプラインを設計できる。 永続性に基づくニューラルネットワークレイヤのクラスを導入します。 永続性ベースのレイヤは、ユーザがデータに敬意を表した対称性(等価性)に関する知識を簡単に注入し、学習可能な重みを持ち、最先端のニューラルネットワークアーキテクチャで構成することができる。

Artificial neural networks can learn complex, salient data features to achieve a given task. On the opposite end of the spectrum, mathematically grounded methods such as topological data analysis allow users to design analysis pipelines fully aware of data constraints and symmetries. We introduce a class of persistence-based neural network layers. Persistence-based layers allow the users to easily inject knowledge about symmetries (equivariance) respected by the data, are equipped with learnable weights, and can be composed with state-of-the-art neural architectures.
翻訳日:2022-12-29 16:23:02 公開日:2022-12-28
# 前方および逆双曲問題に対する特性変形型ニューラルネットワーク

Characteristics-Informed Neural Networks for Forward and Inverse Hyperbolic Problems ( http://arxiv.org/abs/2212.14012v1 )

ライセンス: Link先を確認
Ulisses Braga-Neto(参考訳) 双曲型PDEを含む前方および逆問題を解決するための,単純かつ効率的な機械学習手法である特徴インフォームドニューラルネットワーク(CINN)を提案する。 物理インフォームドニューラルネットワーク(PINN)と同様に、CINNは汎用近似機能を備えたメッシュレス機械学習ソルバである。 マルチパートロス関数を介してPDEをソフトに実施するPINNとは異なり、CINNは、通常のMSEデータ適合回帰損失と標準ディープラーニング最適化手法でトレーニングされた汎用ディープニューラルネットワークにおいて、PDEの特性を符号化する。 これにより、トレーニングが速くなり、マルチパートピン損失関数の勾配降下最適化の既知の病理を回避できる。 重要な場合において真である特性ODEを正確に解くことができれば、CINNの出力は初期化時にもPDEの正確な解であり、非物理的出力の発生を防止できる。 そうでなければ、ODEは概ね解決する必要があるが、CINNはデータ適合損失関数のみを使用してトレーニングされている。 CINNの性能は、前方および逆線形双曲問題において経験的に評価される。 これらの予備的な結果は、CINNがトレーニングの約2倍の速さで、非物理的解決を回避しつつ、ベースラインPINNの精度を改善することができることを示している。 双曲型PDEシステムと非線形PDEの今後の拡張についても概説する。

We propose characteristic-informed neural networks (CINN), a simple and efficient machine learning approach for solving forward and inverse problems involving hyperbolic PDEs. Like physics-informed neural networks (PINN), CINN is a meshless machine learning solver with universal approximation capabilities. Unlike PINN, which enforces a PDE softly via a multi-part loss function, CINN encodes the characteristics of the PDE in a general-purpose deep neural network trained with the usual MSE data-fitting regression loss and standard deep learning optimization methods. This leads to faster training and can avoid well-known pathologies of gradient descent optimization of multi-part PINN loss functions. If the characteristic ODEs can be solved exactly, which is true in important cases, the output of a CINN is an exact solution of the PDE, even at initialization, preventing the occurrence of non-physical outputs. Otherwise, the ODEs must be solved approximately, but the CINN is still trained only using a data-fitting loss function. The performance of CINN is assessed empirically in forward and inverse linear hyperbolic problems. These preliminary results indicate that CINN is able to improve on the accuracy of the baseline PINN, while being nearly twice as fast to train and avoiding non-physical solutions. Future extensions to hyperbolic PDE systems and nonlinear PDEs are also briefly discussed.
翻訳日:2022-12-29 16:22:20 公開日:2022-12-28
# 大規模単一光子イメージング

Large-scale single-photon imaging ( http://arxiv.org/abs/2212.13654v1 )

ライセンス: Link先を確認
Liheng Bian, Haoze Song, Lintao Peng, Xuyang Chang, Xi Yang, Roarke Horstmeyer, Lin Ye, Tong Qin, Dezhi Zheng, Jun Zhang(参考訳) 単一光子感度から得られる1光子アバランシェダイオード(SPAD)アレイは、蛍光寿命イメージングや量子コンピューティングなどの様々な分野に広く応用されている。 しかし、複雑なハードウェア製造技術とSPADアレイのノイズ障害のため、大規模な高忠実な単一光子イメージングは依然として大きな課題である。 本研究では,SPADに深層学習を導入し,高分解能単一光子イメージングを桁違いに実現し,ビット深度と画像品質を大幅に向上させる。 我々はまず,複数の物理的ノイズ源を正確に特徴付けるために,SPAD電子回路の複雑な光子フローモデルについて検討し,実SPAD画像データセット(64$\times$32ピクセル,90シーン,10ビット深度,3異なる照明フラックス,合計2790イメージ)を収集し,ノイズモデルパラメータの校正を行った。 この実世界の物理ノイズモデルを用いて,我々は,大規模で現実的な単光子画像データセット(最大メガピクセル,17250シーン,10ビット深さ,3つの異なる照明フラックス,合計2.6万画像を含む5つの異なる解像度の画像ペア)を,ネットワークトレーニングのために初めて合成した。 また,SPAD入力を低ビット深度,低解像度,高雑音で高解像度に処理するために,コンテンツ適応型自己アテンション機構とゲート融合モジュールを備えたディープトランスフォーマネットワークを構築し,グローバルなコンテクスト特徴を抽出し,マルチソースノイズを除去し,全周波数の詳細を抽出する。 本手法を, マクロ・顕微鏡画像, マイクロ流体検査, フーリエプチコグラフィーなど, 一連の実験に応用した。 実験は、この技術の最先端の超高解像度spad撮像性能を検証し、psnrで5db以上も優れていることを確認した。

Benefiting from its single-photon sensitivity, single-photon avalanche diode (SPAD) array has been widely applied in various fields such as fluorescence lifetime imaging and quantum computing. However, large-scale high-fidelity single-photon imaging remains a big challenge, due to the complex hardware manufacture craft and heavy noise disturbance of SPAD arrays. In this work, we introduce deep learning into SPAD, enabling super-resolution single-photon imaging over an order of magnitude, with significant enhancement of bit depth and imaging quality. We first studied the complex photon flow model of SPAD electronics to accurately characterize multiple physical noise sources, and collected a real SPAD image dataset (64 $\times$ 32 pixels, 90 scenes, 10 different bit depth, 3 different illumination flux, 2790 images in total) to calibrate noise model parameters. With this real-world physical noise model, we for the first time synthesized a large-scale realistic single-photon image dataset (image pairs of 5 different resolutions with maximum megapixels, 17250 scenes, 10 different bit depth, 3 different illumination flux, 2.6 million images in total) for subsequent network training. To tackle the severe super-resolution challenge of SPAD inputs with low bit depth, low resolution, and heavy noise, we further built a deep transformer network with a content-adaptive self-attention mechanism and gated fusion modules, which can dig global contextual features to remove multi-source noise and extract full-frequency details. We applied the technique on a series of experiments including macroscopic and microscopic imaging, microfluidic inspection, and Fourier ptychography. The experiments validate the technique's state-of-the-art super-resolution SPAD imaging performance, with more than 5 dB superiority on PSNR compared to the existing methods.
翻訳日:2022-12-29 16:21:44 公開日:2022-12-28
# Lung-Net:3次元胸部CT画像における肺組織分画の深層学習フレームワーク

Lung-Net: A deep learning framework for lung tissue segmentation in three-dimensional thoracic CT images ( http://arxiv.org/abs/2212.13971v1 )

ライセンス: Link先を確認
Niloufar Delfan(参考訳) ct画像における肺組織の分節化は、ほとんどの肺画像解析応用の前駆体である。 近年,ディープラーニングを用いた意味セグメンテーション手法がトップ層のパフォーマンスを示している。 本稿では,3次元(3次元)肺ct画像における肺の完全自動同定法について紹介する。 我々は、inceptionv3ユニットを持つ深いネットワークは、訓練可能なパラメータの数でモデルの複雑さを増すことなく、肺ct画像のより優れた特徴表現を実現できると推測した。 この方法には3つの利点がある。 まず,inceptionv3ブロックを用いたu-netアーキテクチャを開発し,性能劣化とパラメータ過負荷の問題を解決する。 そして、連続スライスからの情報を用いて、一般化ポテンシャルを高めるために新しいデータ構造を作成し、データ表現をできるだけ効率的にすることで、より多くの識別特徴を抽出できるようにする。 最後に,1つの公開データベースを用いてモデル(luna16)と2つの公開データベース(isbi vessel12 challengeとcrpf dataset)のトレーニングとテストを行い,各データベースは700,23,40のct画像からなり,それぞれ異なるスキャナとプロトコルで取得した。 実験結果に基づいて,提案手法は,LUNA16,VESSEL12,CRPFデータセットに対して,Dice係数99.7,99.1,98.8の既存の手法と比較して,それぞれ競合する結果を得た。 肺組織をct画像で分割する場合,提案手法は時間とパラメータの面で効率的であり,他の最先端法を上回っている。 さらに、このモデルはグラフィカルユーザインタフェースを介して公開アクセス可能である。

Segmentation of lung tissue in computed tomography (CT) images is a precursor to most pulmonary image analysis applications. Semantic segmentation methods using deep learning have exhibited top-tier performance in recent years. This paper presents a fully automatic method for identifying the lungs in three-dimensional (3D) pulmonary CT images, which we call it Lung-Net. We conjectured that a significant deeper network with inceptionV3 units can achieve a better feature representation of lung CT images without increasing the model complexity in terms of the number of trainable parameters. The method has three main advantages. First, a U-Net architecture with InceptionV3 blocks is developed to resolve the problem of performance degradation and parameter overload. Then, using information from consecutive slices, a new data structure is created to increase generalization potential, allowing more discriminating features to be extracted by making data representation as efficient as possible. Finally, the robustness of the proposed segmentation framework was quantitatively assessed using one public database to train and test the model (LUNA16) and two public databases (ISBI VESSEL12 challenge and CRPF dataset) only for testing the model; each database consists of 700, 23, and 40 CT images, respectively, that were acquired with a different scanner and protocol. Based on the experimental results, the proposed method achieved competitive results over the existing techniques with Dice coefficient of 99.7, 99.1, and 98.8 for LUNA16, VESSEL12, and CRPF datasets, respectively. For segmenting lung tissue in CT images, the proposed model is efficient in terms of time and parameters and outperforms other state-of-the-art methods. Additionally, this model is publicly accessible via a graphical user interface.
翻訳日:2022-12-29 16:15:21 公開日:2022-12-28
# ガウス行列と非有界相関をマッチングする多項式時間反復アルゴリズム

A polynomial time iterative algorithm for matching Gaussian matrices with non-vanishing correlation ( http://arxiv.org/abs/2212.13677v1 )

ライセンス: Link先を確認
Jian Ding, Zhangsong Li(参考訳) 2つの相関 erd\h{o}s-r\'enyi グラフにおけるマッチング頂点の問題に動機づけられ、2つの相関ガウスウィグナー行列をマッチングする問題の研究を行った。 2つのガウス行列間の相関が消滅しない限り多項式時間で成功する反復マッチングアルゴリズムを提案する。 その結果、相関が任意に小さいとき、グラフマッチングタイプの問題を解く最初の多項式時間アルゴリズムが得られた。

Motivated by the problem of matching vertices in two correlated Erd\H{o}s-R\'enyi graphs, we study the problem of matching two correlated Gaussian Wigner matrices. We propose an iterative matching algorithm, which succeeds in polynomial time as long as the correlation between the two Gaussian matrices does not vanish. Our result is the first polynomial time algorithm that solves a graph matching type of problem when the correlation is an arbitrarily small constant.
翻訳日:2022-12-29 16:13:51 公開日:2022-12-28
# 群分布的ロバスト最適化のための最適アルゴリズム

Optimal algorithms for group distributionally robust optimization and beyond ( http://arxiv.org/abs/2212.13669v1 )

ライセンス: Link先を確認
Tasuku Soma, Khashayar Gatmiry, Stefanie Jegelka(参考訳) 分散ロバスト最適化(DRO)は,学習手法の堅牢性と公平性を向上させる。 本稿では,グループDRO,サブポピュレーションフェアネス,およびCVaR(Experiical Conditional value at risk)最適化を含むDRO問題のクラスに対する確率的アルゴリズムを考案する。 我々の新しいアルゴリズムは、複数のDRO設定のための既存のアルゴリズムよりも高速な収束率を実現する。 また、新たな情報理論の下界も提供し、この境界はグループDROに対して厳密であることを示す。 経験的にも 我々のアルゴリズムは 既知の手法を上回っています

Distributionally robust optimization (DRO) can improve the robustness and fairness of learning methods. In this paper, we devise stochastic algorithms for a class of DRO problems including group DRO, subpopulation fairness, and empirical conditional value at risk (CVaR) optimization. Our new algorithms achieve faster convergence rates than existing algorithms for multiple DRO settings. We also provide a new information-theoretic lower bound that implies our bounds are tight for group DRO. Empirically, too, our algorithms outperform known methods
翻訳日:2022-12-29 16:11:54 公開日:2022-12-28
# デバイス上での効率的なモデル公開は、競合脆弱性を増大させる

Publishing Efficient On-device Models Increases Adversarial Vulnerability ( http://arxiv.org/abs/2212.13700v1 )

ライセンス: Link先を確認
Sanghyun Hong, Nicholas Carlini, Alexey Kurakin(参考訳) 近年、ディープニューラルネットワーク(DNN)の計算要求が増加し、量子化やプルーニングといった効率的なディープラーニングメカニズムへの関心が高まっている。 これらのメカニズムは、同等の精度で小規模で効率的な商用モデルの構築を可能にし、リソース制約のあるデバイスへの展開を加速する。 本稿では,大規模モデルのデバイス上での変種をパブリッシングするセキュリティ上の考慮事項について検討する。 まず、敵がデバイス上のモデルを利用して大きなモデルを簡単に攻撃できることを示します。 19のDNNを対象とした評価では、発売前のデバイスモデルを転送として利用することにより、元の商用スケールモデルの逆脆弱性は最大100倍まで増加する。 次に,実規模とその効率のよいモデルとの類似性が増すにつれて,脆弱性が増大することを示す。 この知見に基づいて,類似性を低下させる目的でデバイス上でのモデルを微調整する,$ similarity$-unpairing$という防御策を提案する。 我々は,19のDNNに対する防衛効果を評価し,転送可能性の最大90%と10~100倍のクエリ数を削減することを発見した。 以上より,効率的な兄弟姉妹の公開によって生じるセキュリティ(あるいはプライバシ)の脅威について,さらなる研究が必要であることが示唆された。

Recent increases in the computational demands of deep neural networks (DNNs) have sparked interest in efficient deep learning mechanisms, e.g., quantization or pruning. These mechanisms enable the construction of a small, efficient version of commercial-scale models with comparable accuracy, accelerating their deployment to resource-constrained devices. In this paper, we study the security considerations of publishing on-device variants of large-scale models. We first show that an adversary can exploit on-device models to make attacking the large models easier. In evaluations across 19 DNNs, by exploiting the published on-device models as a transfer prior, the adversarial vulnerability of the original commercial-scale models increases by up to 100x. We then show that the vulnerability increases as the similarity between a full-scale and its efficient model increase. Based on the insights, we propose a defense, $similarity$-$unpairing$, that fine-tunes on-device models with the objective of reducing the similarity. We evaluated our defense on all the 19 DNNs and found that it reduces the transferability up to 90% and the number of queries required by a factor of 10-100x. Our results suggest that further research is needed on the security (or even privacy) threats caused by publishing those efficient siblings.
翻訳日:2022-12-29 16:11:46 公開日:2022-12-28
# 自律走行車に対する適応型逆画像摂動利用の学習

Learning When to Use Adaptive Adversarial Image Perturbations against Autonomous Vehicles ( http://arxiv.org/abs/2212.13667v1 )

ライセンス: Link先を確認
Hyung-Jin Yoon, Hamidreza Jafarnejadsani, Petros Voulgaris(参考訳) カメラ画像を用いた物体検出のためのディープニューラルネットワーク(DNN)モデルは、自動運転車で広く採用されている。 しかし、DNNモデルは逆画像摂動の影響を受けやすいことが示されている。 逆画像摂動を生成する既存の方法では、各画像フレームを決定変数として、画像摂動を生成する。 したがって、新しい画像が与えられた場合、独立最適化の間に学習がないため、通常計算的に拡張可能な最適化がやり直さなければならない。 自律走行車の物理的ダイナミクス、ミッション、環境を考慮して、オンライン画像ストリームを攻撃するためのアプローチは、ごくわずかしか開発されていない。 本稿では,攻撃者の逆摂動生成能力を監視するマルチレベル確率最適化フレームワークを提案する。 この能力レベルに基づいて、攻撃の有効性を高めるためにバイナリ決定攻撃/攻撃を導入します。 視覚誘導型自動運転車のシミュレーションとオフィス環境での小型室内ドローンによる実地実験を用いて,提案する多段階画像攻撃フレームワークを評価した。 提案手法は,与えられた状態推定値に熟練した場合を監視しながら,リアルタイムに画像攻撃を発生させる能力を示す。

The deep neural network (DNN) models for object detection using camera images are widely adopted in autonomous vehicles. However, DNN models are shown to be susceptible to adversarial image perturbations. In the existing methods of generating the adversarial image perturbations, optimizations take each incoming image frame as the decision variable to generate an image perturbation. Therefore, given a new image, the typically computationally-expensive optimization needs to start over as there is no learning between the independent optimizations. Very few approaches have been developed for attacking online image streams while considering the underlying physical dynamics of autonomous vehicles, their mission, and the environment. We propose a multi-level stochastic optimization framework that monitors an attacker's capability of generating the adversarial perturbations. Based on this capability level, a binary decision attack/not attack is introduced to enhance the effectiveness of the attacker. We evaluate our proposed multi-level image attack framework using simulations for vision-guided autonomous vehicles and actual tests with a small indoor drone in an office environment. The results show our method's capability to generate the image attack in real-time while monitoring when the attacker is proficient given state estimates.
翻訳日:2022-12-29 16:03:51 公開日:2022-12-28
# 円形アクセシブル深さ:UGVナビゲーションのためのロバストなトラバーサビリティ表現

Circular Accessible Depth: A Robust Traversability Representation for UGV Navigation ( http://arxiv.org/abs/2212.13676v1 )

ライセンス: Link先を確認
Shikuan Xie, Ran Song, Yuenan Zhao, Xueqin Huang, Yibin Li and Wei Zhang(参考訳) 本稿では,無人地上機(ugv)のためのロバストトラバーサビリティ表現であるcircle accessible depth(cad)を用いて,不規則な障害物を含む様々なシナリオにおけるトラバーサビリティを学習する。 CADを予測するために,LiDARが捕捉した点雲から空間的特徴を符号化するために,注意に基づく多フレーム点雲融合モジュールであるSAM(Stable-Attention Module)を用いたCADNetを提案する。 CADは極座標系に基づいて設計され, 走行可能な領域の境界の予測に重点を置いている。 周辺環境の空間情報をエンコードするので、キャデネットの半教師付き学習が可能であり、大量のデータへの注釈を好ましく避けることができる。 大規模実験によりCADは頑丈さと精度でベースラインを上回っていることが示された。 また,本手法を実際のUGVに実装し,実世界のシナリオでよく動作することを示す。

In this paper, we present the Circular Accessible Depth (CAD), a robust traversability representation for an unmanned ground vehicle (UGV) to learn traversability in various scenarios containing irregular obstacles. To predict CAD, we propose a neural network, namely CADNet, with an attention-based multi-frame point cloud fusion module, Stability-Attention Module (SAM), to encode the spatial features from point clouds captured by LiDAR. CAD is designed based on the polar coordinate system and focuses on predicting the border of traversable area. Since it encodes the spatial information of the surrounding environment, which enables a semi-supervised learning for the CADNet, and thus desirably avoids annotating a large amount of data. Extensive experiments demonstrate that CAD outperforms baselines in terms of robustness and precision. We also implement our method on a real UGV and show that it performs well in real-world scenarios.
翻訳日:2022-12-29 16:03:35 公開日:2022-12-28
# 衛星画像上のセグメンテーションの構築と事後手法の性能

Building Segmentation on Satellite Images and Performance of Post-Processing Methods ( http://arxiv.org/abs/2212.13712v1 )

ライセンス: Link先を確認
Metehan Yal\c{c}{\i}n, Ahmet Alp Kindiroglu, Furkan Burak Ba\u{g}c{\i}, Ufuk Uyan, Mahiye Uluya\u{g}mur \"Ozt\"urk(参考訳) 研究者は、コンピュータビジョンアルゴリズムの開発と衛星画像へのアクセシビリティーの容易さにより、衛星画像に関する情報収集に力を入れている。 衛星画像のセグメンテーションの構築は、都市、農業、通信ネットワーク計画など、多くの潜在的な用途に使用できる。 しかし、すべての領域にデータセットが存在しないため、ある領域でトレーニングされたモデルは一般化されなければならない。 本研究では,中国でいくつかのモデルを訓練し,その中から選択した最良のモデルについて後処理を行った。 これらのモデルは、INRIAデータセットのシカゴ地域で評価される。 結果から分かるように、この分野における最先端の成果は達成されていないが、結果は有望である。 本研究は,衛星画像からの建物セグメンテーションの初期実験結果を示すことを目的とする。

Researchers are doing intensive work on satellite images due to the information it contains with the development of computer vision algorithms and the ease of accessibility to satellite images. Building segmentation of satellite images can be used for many potential applications such as city, agricultural, and communication network planning. However, since no dataset exists for every region, the model trained in a region must gain generality. In this study, we trained several models in China and post-processing work was done on the best model selected among them. These models are evaluated in the Chicago region of the INRIA dataset. As can be seen from the results, although state-of-art results in this area have not been achieved, the results are promising. We aim to present our initial experimental results of a building segmentation from satellite images in this study.
翻訳日:2022-12-29 16:03:19 公開日:2022-12-28
# indian-covid-19 ctデータセットを用いたディープラーニングモデルの一般化性評価

Evaluating Generalizability of Deep Learning Models Using Indian-COVID-19 CT Dataset ( http://arxiv.org/abs/2212.13929v1 )

ライセンス: Link先を確認
Suba S, Nita Parekh, Ramesh Loganathan, Vikram Pudi and Chinnababu Sunkavalli(参考訳) コンピューター断層撮影(ct)は肺疾患の診断に日常的に用いられており、最近では新型コロナウイルスの感染率や重症度などの診断に用いられている。 臨床環境でCTスキャン画像の自動処理にma-chine Learning(ML)アプローチを使用する際の大きな懸念の1つは、これらの手法が一般に公開されているCOVID-19データの制限されたサブセットに基づいて訓練されていることである。 これにより、トレーニング中にモデルに見られない外部データセット上で、これらのモデルの一般化性に関する懸念が持ち上がった。 これらの問題に対処するために、この研究では、最も大きなパブリックリポジトリの1つから得られた確認されたCOVID-19データからのCTスキャン画像を用いて、機械学習モデルのトレーニングと内部バリデーションにCOVIDx CT 2Aを使用した。 In-diaから288人のCOVID-19患者から3D CTボリュームと12096個の胸部CT画像を含むオープンソースリポジトリであるIndian-COVID-19 CTデータセットを作成した。 4つの最先端機械学習モデルviz.、軽量畳み込みニューラルネットワーク(cnn)、およびvgg-16、resnet-50、inception-v3などの3つのcnnベースのディープラーニングモデルの比較評価を行い、これら2つのデータセットでct画像のviz.、正常、非共発性肺炎、covid-19の3つのクラスに分類した。 分析の結果、すべてのモデルのパフォーマンスは90%から99%のアキュラシー(cnnでは96%)を持つホールドアウトのcovid-19 ct 2aテストに匹敵することが示されたが、外部のインド・コvid-19 ctデータセットでは、すべてのモデル(8%から19%)でパフォーマンス低下が観察された。 従来のma-chine学習モデルであるCNNは、ディープラーニングモデルと比較して、外部データセット(accu-racy 88%)で最善を尽くした。 データとコードはhttps://github.com/aleesuss/c19で入手できる。

Computer tomography (CT) have been routinely used for the diagnosis of lung diseases and recently, during the pandemic, for detecting the infectivity and severity of COVID-19 disease. One of the major concerns in using ma-chine learning (ML) approaches for automatic processing of CT scan images in clinical setting is that these methods are trained on limited and biased sub-sets of publicly available COVID-19 data. This has raised concerns regarding the generalizability of these models on external datasets, not seen by the model during training. To address some of these issues, in this work CT scan images from confirmed COVID-19 data obtained from one of the largest public repositories, COVIDx CT 2A were used for training and internal vali-dation of machine learning models. For the external validation we generated Indian-COVID-19 CT dataset, an open-source repository containing 3D CT volumes and 12096 chest CT images from 288 COVID-19 patients from In-dia. Comparative performance evaluation of four state-of-the-art machine learning models, viz., a lightweight convolutional neural network (CNN), and three other CNN based deep learning (DL) models such as VGG-16, ResNet-50 and Inception-v3 in classifying CT images into three classes, viz., normal, non-covid pneumonia, and COVID-19 is carried out on these two datasets. Our analysis showed that the performance of all the models is comparable on the hold-out COVIDx CT 2A test set with 90% - 99% accuracies (96% for CNN), while on the external Indian-COVID-19 CT dataset a drop in the performance is observed for all the models (8% - 19%). The traditional ma-chine learning model, CNN performed the best on the external dataset (accu-racy 88%) in comparison to the deep learning models, indicating that a light-weight CNN is better generalizable on unseen data. The data and code are made available at https://github.com/aleesuss/c19.
翻訳日:2022-12-29 16:02:51 公開日:2022-12-28
# 離散情報ボトルネックによる深部RLの表現学習

Representation Learning in Deep RL via Discrete Information Bottleneck ( http://arxiv.org/abs/2212.13835v1 )

ライセンス: Link先を確認
Riashat Islam, Hongyu Zang, Manan Tomar, Aniket Didolkar, Md Mofijul Islam, Samin Yeasar Arnob, Tariq Iqbal, Xin Li, Anirudh Goyal, Nicolas Heess, Alex Lamb(参考訳) 強化学習(RL)のための自己教師付き表現学習法がいくつか提案されている。 RLの実際の応用においては、特に知覚入力が無関係で外生的な情報を含む場合、下層の潜伏状態の回復が重要である。 本研究では,タスク関連情報の存在下で,遅延状態の効率的な構築に情報ボトルネックを用いる方法について検討する。 本稿では,構造的因子化表現を学習するために,変動的および離散的情報ボトルネックをrepdibとして用いたアーキテクチャを提案する。 因子化表現によって購入された表現性をエクスプロイトし、RLの既存の自己監督対象と統合可能な、単純かつ効果的でボトルネックを導入する。 我々は、オンラインおよびオフラインのrlベンチマークと実際のロボットアームタスクでこれを実証し、repdibによる圧縮表現は、無関係な情報を無視しながら関連する状態のみを予測するのに役立つため、強力なパフォーマンス改善につながることを見出します。

Several self-supervised representation learning methods have been proposed for reinforcement learning (RL) with rich observations. For real-world applications of RL, recovering underlying latent states is crucial, particularly when sensory inputs contain irrelevant and exogenous information. In this work, we study how information bottlenecks can be used to construct latent states efficiently in the presence of task-irrelevant information. We propose architectures that utilize variational and discrete information bottlenecks, coined as RepDIB, to learn structured factorized representations. Exploiting the expressiveness bought by factorized representations, we introduce a simple, yet effective, bottleneck that can be integrated with any existing self-supervised objective for RL. We demonstrate this across several online and offline RL benchmarks, along with a real robot arm task, where we find that compressed representations with RepDIB can lead to strong performance improvements, as the learned bottlenecks help predict only the relevant state while ignoring irrelevant information.
翻訳日:2022-12-29 15:56:51 公開日:2022-12-28
# メタパスコンテキストと重み付き負のサンプルを用いた不均一グラフコントラスト学習

Heterogeneous Graph Contrastive Learning with Meta-path Contexts and Weighted Negative Samples ( http://arxiv.org/abs/2212.13847v1 )

ライセンス: Link先を確認
Jianxiang Yu, Xiang Li(参考訳) 異種グラフコントラスト学習は近年広く注目されている。 既存のメソッドでは、オブジェクト間の意味的関係をキャプチャするオブジェクトタイプのシーケンスであるメタパスを使用して、コントラストビューを構築する。 しかし、そのほとんどは、メタパスによって2つのオブジェクトが接続される方法を記述するリッチなメタパスコンテキスト情報を無視している。 一方、モデル性能に悪影響を及ぼす可能性のある偽陰性とハードネガティブを区別することができない。 そこで我々はメタパスコンテキストと重み付き負のサンプルの両方を考慮した異種グラフコントラスト学習モデルMEOWを提案する。 具体的には、MEOWは、粗いビューとコントラストのためのきめ細かいビューを構築する。 前者は、どのオブジェクトがメタパスによって接続されているかを反映し、後者は、メタパスコンテキストを使用し、オブジェクトの接続方法の詳細を特徴付ける。 我々は、粗いビューにノード埋め込みをアンカーとみなし、きめ細かいビューから正と負のサンプルを構築する。 さらに,false negativesとfalse negativesを区別するために,ノードクラスタリングに基づいて負のサンプルの重みを学習する。 原型的なコントラスト学習を使用して、同じクラスタにノードの密着な埋め込みを取り込む。 最後に,他の最先端手法に対するMEOWの優位性を示すため,広範な実験を行った。

Heterogeneous graph contrastive learning has received wide attention recently. Some existing methods use meta-paths, which are sequences of object types that capture semantic relationships between objects, to construct contrastive views. However, most of them ignore the rich meta-path context information that describes how two objects are connected by meta-paths. On the other hand, they fail to distinguish hard negatives from false negatives, which could adversely affect the model performance. To address the problems, we propose MEOW, a heterogeneous graph contrastive learning model that considers both meta-path contexts and weighted negative samples. Specifically, MEOW constructs a coarse view and a fine-grained view for contrast. The former reflects which objects are connected by meta-paths, while the latter uses meta-path contexts and characterizes the details on how the objects are connected. We take node embeddings in the coarse view as anchors, and construct positive and negative samples from the fine-grained view. Further, to distinguish hard negatives from false negatives, we learn weights of negative samples based on node clustering. We also use prototypical contrastive learning to pull close embeddings of nodes in the same cluster. Finally, we conduct extensive experiments to show the superiority of MEOW against other state-of-the-art methods.
翻訳日:2022-12-29 15:56:33 公開日:2022-12-28
# アーキテクチャ障壁を破る:ネットワークを横断する効率的な知識伝達方法

Breaking the Architecture Barrier: A Method for Efficient Knowledge Transfer Across Networks ( http://arxiv.org/abs/2212.13970v1 )

ライセンス: Link先を確認
Maciej A. Czyzewski, Daniel Nowak, Kamil Piechowiak(参考訳) 転送学習は、ニューラルネットワークの性能を向上させるための一般的なテクニックである。 しかし、既存の手法は同一アーキテクチャのネットワーク間のパラメータ転送に限られている。 本稿では,異なるアーキテクチャのニューラルネットワーク間でパラメータを転送する手法を提案する。 我々の手法はDPIATと呼ばれ、動的プログラミングを用いてアーキテクチャ間のブロックとレイヤをマッチングし、パラメータを効率的に転送する。 既存のパラメータ予測やランダム初期化手法と比較して、トレーニング効率と検証精度が大幅に向上する。 ImageNetの実験では,50時間後の平均1.6倍の検証精度が向上した。 DPIATは、研究者とニューラルアーキテクチャ検索システムの両方がトレーニングされたネットワークを変更し、知識を再利用することを可能にする。 また,ネットワークアーキテクチャの類似性尺度を導入し,ユーザがトレーニングなしで最適なソースネットワークを選択できるようにする。

Transfer learning is a popular technique for improving the performance of neural networks. However, existing methods are limited to transferring parameters between networks with same architectures. We present a method for transferring parameters between neural networks with different architectures. Our method, called DPIAT, uses dynamic programming to match blocks and layers between architectures and transfer parameters efficiently. Compared to existing parameter prediction and random initialization methods, it significantly improves training efficiency and validation accuracy. In experiments on ImageNet, our method improved validation accuracy by an average of 1.6 times after 50 epochs of training. DPIAT allows both researchers and neural architecture search systems to modify trained networks and reuse knowledge, avoiding the need for retraining from scratch. We also introduce a network architecture similarity measure, enabling users to choose the best source network without any training.
翻訳日:2022-12-29 15:56:10 公開日:2022-12-28
# 過パラメータ二値最適化におけるインプシットバイアスについて

On Implicit Bias in Overparameterized Bilevel Optimization ( http://arxiv.org/abs/2212.14032v1 )

ライセンス: Link先を確認
Paul Vicol, Jonathan Lorraine, Fabian Pedregosa, David Duvenaud, Roger Grosse(参考訳) 機械学習における多くの問題は、ハイパーパラメータ最適化、メタラーニング、データセット蒸留など、双レベル最適化(BLO)である。 双レベル問題は、それぞれ外問題と内問題と呼ばれる、ネストした2つのサブプロブレムからなる。 実際には、これらのサブプロブレムの少なくとも1つは過パラメータ化されることが多い。 この場合、同等の客観的値を達成するオプティマの中から選択する方法は数多く存在する。 単レベル最適化における最適化アルゴリズムによる暗黙バイアスの最近の研究に触発され、二レベル最適化のための勾配に基づくアルゴリズムの暗黙バイアスについて検討した。 コールドスタートとウォームスタートという2つの標準的なBLO手法を定式化し、収束した解や長時間動作は、これらのアルゴリズムや、過次近似などのアルゴリズムの選択に大きく依存していることを示す。 また,BLOから得られる内部解は,低次元であっても,外的対象に関する驚くべき量の情報を符号化可能であることを示す。 我々は、暗黙の偏見は、シングルレベルニューラルネットワーク最適化の研究において達成された双レベル最適化の研究における中心的な役割であると考えている。

Many problems in machine learning involve bilevel optimization (BLO), including hyperparameter optimization, meta-learning, and dataset distillation. Bilevel problems consist of two nested sub-problems, called the outer and inner problems, respectively. In practice, often at least one of these sub-problems is overparameterized. In this case, there are many ways to choose among optima that achieve equivalent objective values. Inspired by recent studies of the implicit bias induced by optimization algorithms in single-level optimization, we investigate the implicit bias of gradient-based algorithms for bilevel optimization. We delineate two standard BLO methods -- cold-start and warm-start -- and show that the converged solution or long-run behavior depends to a large degree on these and other algorithmic choices, such as the hypergradient approximation. We also show that the inner solutions obtained by warm-start BLO can encode a surprising amount of information about the outer objective, even when the outer parameters are low-dimensional. We believe that implicit bias deserves as central a role in the study of bilevel optimization as it has attained in the study of single-level neural net optimization.
翻訳日:2022-12-29 15:55:59 公開日:2022-12-28
# アンバイアスドラーニングのランク付けにおける意義とバイアスの解消に向けて

Towards Disentangling Relevance and Bias in Unbiased Learning to Rank ( http://arxiv.org/abs/2212.13937v1 )

ライセンス: Link先を確認
Yunan Zhang, Le Yan, Zhen Qin, Honglei Zhuang, Jiaming Shen, Xuanhui Wang, Michael Bendersky, Marc Najork(参考訳) Unbiased Learning to rank (ULTR)は、クリックのような暗黙のユーザフィードバックデータから様々なバイアスを緩和する問題を研究しており、近年かなりの注目を集めている。 現実世界のアプリケーションで一般的なULTRアプローチでは、クリックモデリングを通常の入力特徴を持つ関連タワーに分解する2towerアーキテクチャと、文書の位置のようなバイアス関連入力を持つバイアスタワーを用いる。 ファクター化の成功により、関係塔はバイアスを免除される。 本研究では,既存のULTR法が無視する重要な問題であるバイアスタワーを,基礎となる真の関連性を通じて,関連塔と結合することができることを示す。 特に、それらのポジションはロギングポリシー、すなわち関連情報を持つ以前の生産モデルによって決定された。 このような相関関係から相関塔に負の効果を示すために,理論解析と実験結果の両方を与える。 次に, 関連度やバイアスの解消により, 負の共起効果を緩和する3つの手法を提案する。 制御されたパブリックデータセットと大規模産業データセットの両方の実証結果は、提案手法の有効性を示している。

Unbiased learning to rank (ULTR) studies the problem of mitigating various biases from implicit user feedback data such as clicks, and has been receiving considerable attention recently. A popular ULTR approach for real-world applications uses a two-tower architecture, where click modeling is factorized into a relevance tower with regular input features, and a bias tower with bias-relevant inputs such as the position of a document. A successful factorization will allow the relevance tower to be exempt from biases. In this work, we identify a critical issue that existing ULTR methods ignored - the bias tower can be confounded with the relevance tower via the underlying true relevance. In particular, the positions were determined by the logging policy, i.e., the previous production model, which would possess relevance information. We give both theoretical analysis and empirical results to show the negative effects on relevance tower due to such a correlation. We then propose three methods to mitigate the negative confounding effects by better disentangling relevance and bias. Empirical results on both controlled public datasets and a large-scale industry dataset show the effectiveness of the proposed approaches.
翻訳日:2022-12-29 15:54:06 公開日:2022-12-28
# 特定分野における学術論文からの将来の作業内容の自動認識と分類

Automatic Recognition and Classification of Future Work Sentences from Academic Articles in a Specific Domain ( http://arxiv.org/abs/2212.13860v1 )

ライセンス: Link先を確認
Chengzhi Zhang, Yi Xiang, Wenke Hao, Zhicheng Li, Yuchen Qian, Yuzhuo Wang(参考訳) 今後の作業文 (FWS) は、著者が提案したフォローアップ研究の方向性を記述した学術論文の特定の文である。 本稿では,学術論文から自動的にFWSを抽出し,論文の内容に具現化された異なる将来方向に応じて分類する手法を提案する。 fws認識により、後続の研究者は将来の作業文をより正確に迅速に見つけることができ、コーパスを取得する時間とコストを削減できる。 将来の作業文の自動識別に関する現在の研究は、比較的小規模であり、既存の研究は学術論文から正確なfwsを識別できないため、大規模なデータマイニングはできない。 さらに、将来の作業の内容には多くの側面があり、コンテンツの下位区分は特定の開発方向の分析に寄与する。 本稿では,自然言語処理(nlp)をケーススタディとして使用し,fwsを学術論文から抽出し,異なる種類に分類した。 アノテーション付きコーパスを6種類のFWSで手動で構築する。 次に、機械学習モデルを用いてFWSの自動認識と分類を行い、これらのモデルの性能を評価指標に基づいて比較する。 その結果、Bernolli Bayesianモデルは自動認識タスクで最高のパフォーマンスを示し、マクロF1は90.73%、SCIBERTモデルは自動分類タスクで最高のパフォーマンスを示し、重み付き平均F1は72.63%に達した。 最後に、FWS からキーワードを抽出し、FWS に記述されている重要な内容の深い理解を得るとともに、今後の作業文と抽象文の類似性を測定することにより、FWS におけるコンテンツ決定がその後の研究成果に反映されることを示す。

Future work sentences (FWS) are the particular sentences in academic papers that contain the author's description of their proposed follow-up research direction. This paper presents methods to automatically extract FWS from academic papers and classify them according to the different future directions embodied in the paper's content. FWS recognition methods will enable subsequent researchers to locate future work sentences more accurately and quickly and reduce the time and cost of acquiring the corpus. The current work on automatic identification of future work sentences is relatively small, and the existing research cannot accurately identify FWS from academic papers, and thus cannot conduct data mining on a large scale. Furthermore, there are many aspects to the content of future work, and the subdivision of the content is conducive to the analysis of specific development directions. In this paper, Nature Language Processing (NLP) is used as a case study, and FWS are extracted from academic papers and classified into different types. We manually build an annotated corpus with six different types of FWS. Then, automatic recognition and classification of FWS are implemented using machine learning models, and the performance of these models is compared based on the evaluation metrics. The results show that the Bernoulli Bayesian model has the best performance in the automatic recognition task, with the Macro F1 reaching 90.73%, and the SCIBERT model has the best performance in the automatic classification task, with the weighted average F1 reaching 72.63%. Finally, we extract keywords from FWS and gain a deep understanding of the key content described in FWS, and we also demonstrate that content determination in FWS will be reflected in the subsequent research work by measuring the similarity between future work sentences and the abstracts.
翻訳日:2022-12-29 15:47:51 公開日:2022-12-28
# Demonstrate-Search-Predict:知識集約型NLPのための合成検索と言語モデル

Demonstrate-Search-Predict: Composing retrieval and language models for knowledge-intensive NLP ( http://arxiv.org/abs/2212.14024v1 )

ライセンス: Link先を確認
Omar Khattab, Keshav Santhanam, Xiang Lisa Li, David Hall, Percy Liang, Christopher Potts, Matei Zaharia(参考訳) 自然言語モデル(lm)と検索モデル(rm)を用いて,知識集約型タスクに対処するための強力なアプローチとして,検索学習が登場している。 既存の作業はこれらを、RMがLMプロンプトに挿入された通路を回収する単純な"検索-読み取り"パイプラインに統合している。 凍結したLMとRMの可能性をフルに実現するために,LMとRMの間の洗練されたパイプラインに自然言語テキストを渡すことに依存するフレームワークであるDSP(Demonstrate-Search-Predict)を提案する。 DSPはパイプライン対応のデモをブートストラップし、関連するパスを探索し、基礎的な予測を生成し、LMとRMがより確実に処理できる小さな変換に問題を体系的に分割する高レベルプログラムを表現できる。 オープンドメイン、マルチホップ、会話的設定で質問に答える新しいdspプログラムを作成し、初期の評価で新たな最先端のインコンテキスト学習結果を確立し、標準的なレトリーブ・ザ・リードパイプラインであるvanilla lmsに対して37-200%、8-40%、80-290%の相対的なゲインをそれぞれ提供する。

Retrieval-augmented in-context learning has emerged as a powerful approach for addressing knowledge-intensive tasks using frozen language models (LM) and retrieval models (RM). Existing work has combined these in simple "retrieve-then-read" pipelines in which the RM retrieves passages that are inserted into the LM prompt. To begin to fully realize the potential of frozen LMs and RMs, we propose Demonstrate-Search-Predict (DSP), a framework that relies on passing natural language texts in sophisticated pipelines between an LM and an RM. DSP can express high-level programs that bootstrap pipeline-aware demonstrations, search for relevant passages, and generate grounded predictions, systematically breaking down problems into small transformations that the LM and RM can handle more reliably. We have written novel DSP programs for answering questions in open-domain, multi-hop, and conversational settings, establishing in early evaluations new state-of-the-art in-context learning results and delivering 37-200%, 8-40%, and 80-290% relative gains against vanilla LMs, a standard retrieve-then-read pipeline, and a contemporaneous self-ask pipeline, respectively.
翻訳日:2022-12-29 15:47:21 公開日:2022-12-28
# 自己回帰変換器と条件付き正規化フローを用いた階層時系列のエンドツーエンドモデリング

End-to-End Modeling Hierarchical Time Series Using Autoregressive Transformer and Conditional Normalizing Flow based Reconciliation ( http://arxiv.org/abs/2212.13706v1 )

ライセンス: Link先を確認
Shiyu Wang, Fan Zhou, Yinbo Sun, Lintao Ma, James Zhang, Yangfei Zheng, Lei Lei, Yun Hu(参考訳) 階層構造を持つ多変量時系列予測は、実世界のアプリケーションで広く普及し、階層構造の各レベルを予測するだけでなく、すべての予測を調整して一貫性を確保すること、すなわち階層的階層性制約を満たすことを要求する。 さらに、レベル間の統計特性の差は大きく、非ガウス分布と非線形相関によって悪化する。 そこで本稿では,並列性を確保しつつ,複雑なデータ分布を表現するための条件付き正規化フローベース自己回帰トランスフォーマリコンシリエーションに基づく,エンド・ツー・エンドの階層的時系列予測モデルを提案する。 他の最先端手法とは異なり、明示的な後処理ステップを必要とせずに予測と和解を同時に達成する。 さらに、深層モデルのパワーを活用することで、偏りのない推定やガウス分布のような仮定に依存しない。 評価実験は, 異なる産業領域の4つの実世界の階層的データセット(Alipayのデータセンターのアプリケーションサーバからの3つのパブリックデータセットと1つのデータセット)を用いて実施し, 提案手法の有効性を実証した。

Multivariate time series forecasting with hierarchical structure is pervasive in real-world applications, demanding not only predicting each level of the hierarchy, but also reconciling all forecasts to ensure coherency, i.e., the forecasts should satisfy the hierarchical aggregation constraints. Moreover, the disparities of statistical characteristics between levels can be huge, worsened by non-Gaussian distributions and non-linear correlations. To this extent, we propose a novel end-to-end hierarchical time series forecasting model, based on conditioned normalizing flow-based autoregressive transformer reconciliation, to represent complex data distribution while simultaneously reconciling the forecasts to ensure coherency. Unlike other state-of-the-art methods, we achieve the forecasting and reconciliation simultaneously without requiring any explicit post-processing step. In addition, by harnessing the power of deep model, we do not rely on any assumption such as unbiased estimates or Gaussian distribution. Our evaluation experiments are conducted on four real-world hierarchical datasets from different industrial domains (three public ones and a dataset from the application servers of Alipay's data center) and the preliminary results demonstrate efficacy of our proposed method.
翻訳日:2022-12-29 15:45:24 公開日:2022-12-28
# 連続深さ繰り返しニューラル微分方程式

Continuous Depth Recurrent Neural Differential Equations ( http://arxiv.org/abs/2212.13714v1 )

ライセンス: Link先を確認
Srinivas Anumasa, Geetakrishnasai Gunapati, P.K. Srijith(参考訳) リカレントニューラルネットワーク(RNN)は、シーケンスラベリングタスクやシーケンスデータに多くの進歩をもたらした。 しかし、それらの効果は、観測が不規則な時間間隔で到着する不規則なサンプル化された場合に限られる。 これを解決するために、ニューラル常微分方程式(NODE)に基づいて連続時間変分RNNを導入した。 彼らは、観測間の時間間隔を考慮して、時間とともに隠れた状態の連続的な変換を使用して、データのより良い表現を学ぶ。 しかし、それらは離散変換と、シーケンスの入力に対して固定された離散層数(深さ)を使用して出力観測を行うため、その能力にはまだ制限がある。 この制限に対処するために、連続的な変換を深さと時間の両方でモデル化する微分方程式に基づいてRNNを提案し、与えられた入力の出力を予測する。 具体的には、時間次元と深さ次元の両方で隠れた状態を連続的に進化させることにより、RNNモデルを一般化する連続深さ反復型ニューラル微分方程式(CDR-NDE)を提案する。 CDR-NDEはこれらの次元のそれぞれに対して2つの異なる微分方程式を考え、時間方向と深さ方向の進化をモデル化する。 また,隠蔽状態の計算を時間経過に伴う熱方程式の解法として扱う偏微分方程式に基づくCDR-NDE熱モデルを提案する。 本稿では,実世界系列ラベリング問題とデータに対して最先端のrnnモデルとの比較を行い,提案モデルの有効性を示す。

Recurrent neural networks (RNNs) have brought a lot of advancements in sequence labeling tasks and sequence data. However, their effectiveness is limited when the observations in the sequence are irregularly sampled, where the observations arrive at irregular time intervals. To address this, continuous time variants of the RNNs were introduced based on neural ordinary differential equations (NODE). They learn a better representation of the data using the continuous transformation of hidden states over time, taking into account the time interval between the observations. However, they are still limited in their capability as they use the discrete transformations and a fixed discrete number of layers (depth) over an input in the sequence to produce the output observation. We intend to address this limitation by proposing RNNs based on differential equations which model continuous transformations over both depth and time to predict an output for a given input in the sequence. Specifically, we propose continuous depth recurrent neural differential equations (CDR-NDE) which generalizes RNN models by continuously evolving the hidden states in both the temporal and depth dimensions. CDR-NDE considers two separate differential equations over each of these dimensions and models the evolution in the temporal and depth directions alternatively. We also propose the CDR-NDE-heat model based on partial differential equations which treats the computation of hidden states as solving a heat equation over time. We demonstrate the effectiveness of the proposed models by comparing against the state-of-the-art RNN models on real world sequence labeling problems and data.
翻訳日:2022-12-29 15:45:04 公開日:2022-12-28
# モデルに基づく特徴量を用いた雑音ラベルの検出

Learning to Detect Noisy Labels Using Model-Based Features ( http://arxiv.org/abs/2212.13767v1 )

ライセンス: Link先を確認
Zhihao Wang, Zongyu Lin, Peiqi Liu, Guidong ZHeng, Junjie Wen, Xianxin Chen, Yujun Chen, Zhilin Yang(参考訳) ラベルノイズは、モデル予測を伴う自己ラベルや誤ったデータアノテーションなど、さまざまな機械学習シナリオにおいてユビキタスである。 既存のアプローチの多くはサンプル損失のようなヒューリスティックに基づいており、最適な解を得るには柔軟ではないかもしれない。 メタ学習ベースの手法は、データ選択関数を学習することでこの問題に対処しますが、最適化は困難です。 これらの長所と短所を踏まえて,データ駆動の柔軟性を持ちながらメタ学習に依存しない選択強調型雑音ラベルトレーニング(sent)を提案する。 sentはノイズ分布をクリーンセットに転送し、モデルベースの機能を使用してノイズラベルとクリーンラベルを区別するモデルをトレーニングする。 実証的には、テキスト分類や音声認識を含む幅広いタスクにおいて、SENTは自己学習やラベルの破損の設定の下で、強いベースラインよりもパフォーマンスを向上させる。

Label noise is ubiquitous in various machine learning scenarios such as self-labeling with model predictions and erroneous data annotation. Many existing approaches are based on heuristics such as sample losses, which might not be flexible enough to achieve optimal solutions. Meta learning based methods address this issue by learning a data selection function, but can be hard to optimize. In light of these pros and cons, we propose Selection-Enhanced Noisy label Training (SENT) that does not rely on meta learning while having the flexibility of being data-driven. SENT transfers the noise distribution to a clean set and trains a model to distinguish noisy labels from clean ones using model-based features. Empirically, on a wide range of tasks including text classification and speech recognition, SENT improves performance over strong baselines under the settings of self-training and label corruption.
翻訳日:2022-12-29 15:44:36 公開日:2022-12-28
# 辞書多目的強化学習

Lexicographic Multi-Objective Reinforcement Learning ( http://arxiv.org/abs/2212.13769v1 )

ライセンス: Link先を確認
Joar Skalse, Lewis Hammond, Charlie Griffin, Alessandro Abate(参考訳) 本研究では,語彙的多目的問題を解決するための強化学習手法を提案する。 これらは、複数の報酬信号を含む問題であり、第一の報酬信号を最大化するポリシーを学習することであり、この制約に従えば第二の報酬信号も最大化する等である。 このような問題を解くのに使用できるアクション値およびポリシー勾配アルゴリズムのファミリーを示し、それらが語彙学的に最適であるポリシーに収束することを証明する。 我々は,これらのアルゴリズムのスケーラビリティと性能を実証的に評価し,実用性を示す。 より具体的なアプリケーションとして、エージェントの動作に安全制約を課すために我々のアルゴリズムをどのように使用できるかを示し、この文脈でのそれらの性能を他の制約付き強化学習アルゴリズムと比較する。

In this work we introduce reinforcement learning techniques for solving lexicographic multi-objective problems. These are problems that involve multiple reward signals, and where the goal is to learn a policy that maximises the first reward signal, and subject to this constraint also maximises the second reward signal, and so on. We present a family of both action-value and policy gradient algorithms that can be used to solve such problems, and prove that they converge to policies that are lexicographically optimal. We evaluate the scalability and performance of these algorithms empirically, demonstrating their practical applicability. As a more specific application, we show how our algorithms can be used to impose safety constraints on the behaviour of an agent, and compare their performance in this context with that of other constrained reinforcement learning algorithms.
翻訳日:2022-12-29 15:44:22 公開日:2022-12-28
# より細かい粒度でオブジェクトを解析する:調査

Parsing Objects at a Finer Granularity: A Survey ( http://arxiv.org/abs/2212.13693v1 )

ライセンス: Link先を確認
Yifan Zhao, Jia Li, Yonghong Tian(参考訳) 微粒な部分分割や微粒な物体認識を含む微粒な視覚解析は、農業、リモートセンシング、宇宙技術など多くの実世界の応用において重要であることから、かなりの注目を集めている。 卓越した研究努力は、異なるパラダイムに従うこれらのきめ細かいサブタスクに取り組む一方で、これらのタスク間の固有の関係は無視されている。 さらに,研究の大部分は断片化されているため,パート関係の学習という新たな視点から,先進的な研究を深く研究する。 この観点から、我々はまず最近の研究とベンチマーク合成を新しい分類学と統合する。 この統合に基づいて、細粒度部分分割および認識タスクにおける普遍的な課題を再考し、これらの重要な課題に対する部分関係学習による新しいソリューションを提案する。 さらに, 今後の研究のために, きめ細かな視覚的解析に関するいくつかの有望な研究成果をまとめる。

Fine-grained visual parsing, including fine-grained part segmentation and fine-grained object recognition, has attracted considerable critical attention due to its importance in many real-world applications, e.g., agriculture, remote sensing, and space technologies. Predominant research efforts tackle these fine-grained sub-tasks following different paradigms, while the inherent relations between these tasks are neglected. Moreover, given most of the research remains fragmented, we conduct an in-depth study of the advanced work from a new perspective of learning the part relationship. In this perspective, we first consolidate recent research and benchmark syntheses with new taxonomies. Based on this consolidation, we revisit the universal challenges in fine-grained part segmentation and recognition tasks and propose new solutions by part relationship learning for these important challenges. Furthermore, we conclude several promising lines of research in fine-grained visual parsing for future research.
翻訳日:2022-12-29 15:38:20 公開日:2022-12-28
# 赤血球の微細粒度分類

Shape-Aware Fine-Grained Classification of Erythroid Cells ( http://arxiv.org/abs/2212.13695v1 )

ライセンス: Link先を確認
Ye Wang, Rui Ma, Xiaoqing Ma, Honghua Cui, Yubin Xiao, Xuan Wu, You Zhou(参考訳) 骨髄赤血球の微細な分類と計数は、白血病や血液疾患の健康状態の評価と治療スケジュールの策定に不可欠である。 異なる種類の赤血球間の微妙な視覚的差異のため、既存の画像に基づくディープラーニングモデルを微細な赤血球分類に適用することは困難である。 さらに、モデルトレーニングをサポートするために、エリスロイド細胞に大規模なオープンソースデータセットはありません。 本稿では,エリスロイド細胞の最初の大規模細粒画像データセットであるbmec(bone morrow erythroid cells)を紹介する。 bmecは、骨髄赤血球スメアから抽出され、4種類の赤血球細胞のうちの1つに専門的にアノテートされた、個々の赤血球細胞の5,666画像を含む。 赤血球を識別するためには、細胞の成長と成熟と密接に関連している細胞形状が重要な指標である。 そこで我々は細粒度赤血球分類のための新しい形状認識型画像分類ネットワークを設計する。 形状マスク画像から形状特徴を抽出し、形状注目モジュールで生画像特徴に集約する。 形状対応画像特徴により,本ネットワークはベースライン法と比較して,bmecデータセット上で優れた分類性能(top-1精度81.12\%)を達成した。 アブレーション研究は、微細粒度の細胞分類に形状情報を組み込む効果も示している。 さらに,本手法の一般化性を検証するために,2つの公開白血球(WBC)データセットを用いてネットワークを試験し,その形状認識手法がWBCの分類における最近の最先端の成果を上回ることを示す。 コードとBMECデータセットはhttps://github.com/wangye8899/BMECで見ることができる。

Fine-grained classification and counting of bone marrow erythroid cells are vital for evaluating the health status and formulating therapeutic schedules for leukemia or hematopathy. Due to the subtle visual differences between different types of erythroid cells, it is challenging to apply existing image-based deep learning models for fine-grained erythroid cell classification. Moreover, there is no large open-source datasets on erythroid cells to support the model training. In this paper, we introduce BMEC (Bone Morrow Erythroid Cells), the first large fine-grained image dataset of erythroid cells, to facilitate more deep learning research on erythroid cells. BMEC contains 5,666 images of individual erythroid cells, each of which is extracted from the bone marrow erythroid cell smears and professionally annotated to one of the four types of erythroid cells. To distinguish the erythroid cells, one key indicator is the cell shape which is closely related to the cell growth and maturation. Therefore, we design a novel shape-aware image classification network for fine-grained erythroid cell classification. The shape feature is extracted from the shape mask image and aggregated to the raw image feature with a shape attention module. With the shape-attended image feature, our network achieved superior classification performance (81.12\% top-1 accuracy) on the BMEC dataset comparing to the baseline methods. Ablation studies also demonstrate the effectiveness of incorporating the shape information for the fine-grained cell classification. To further verify the generalizability of our method, we tested our network on two additional public white blood cells (WBC) datasets and the results show our shape-aware method can generally outperform recent state-of-the-art works on classifying the WBC. The code and BMEC dataset can be found on https://github.com/wangye8899/BMEC.
翻訳日:2022-12-29 15:38:05 公開日:2022-12-28
# フレーム毎CNNと出力平滑化を用いたアクティブ緊急車両の検出

Detection of Active Emergency Vehicles using Per-Frame CNNs and Output Smoothing ( http://arxiv.org/abs/2212.13696v1 )

ライセンス: Link先を確認
Meng Fan, Craig Bidstrup, Zhaoen Su, Jason Owens, Gary Yang, Nemanja Djuric(参考訳) 一般的なアクター状態(位置や速度など)を推定することは、自動運転車(SDV)に搭載された知覚システムの重要かつよく探索されたタスクであるが、SDVに十分な情報を提供するとは限らない。 これは特にアクティブ緊急車両(evs)の場合、完全なコンテキストを提供するために光ベースの信号もキャプチャする必要がある場合に当てはまる。 本稿では,フレームレベルで動作している市販のCNNモデルと,点滅するEVライトの時間的側面を考慮した下流スムーズなモデルを用いて,アクティブEV検出のシーケンシャル手法を提案する。 さらに、データ拡張とトレーニングによるモデルの改善についても検討しています。

While inferring common actor states (such as position or velocity) is an important and well-explored task of the perception system aboard a self-driving vehicle (SDV), it may not always provide sufficient information to the SDV. This is especially true in the case of active emergency vehicles (EVs), where light-based signals also need to be captured to provide a full context. We consider this problem and propose a sequential methodology for the detection of active EVs, using an off-the-shelf CNN model operating at a frame level and a downstream smoother that accounts for the temporal aspect of flashing EV lights. We also explore model improvements through data augmentation and training with additional hard samples.
翻訳日:2022-12-29 15:37:36 公開日:2022-12-28
# 多視点表現学習のためのクラスタリング誘導コントラスト融合

A Clustering-guided Contrastive Fusion for Multi-view Representation Learning ( http://arxiv.org/abs/2212.13726v1 )

ライセンス: Link先を確認
Guanzhou Ke, Guoqing Chao, Xiaoli Wang, Chenyang Xu, Chang Xu, Yongqi Zhu, and Yang Yu(参考訳) 過去20年間、多視点表現学習の分野では、多様なドメインから有用な情報を抽出し、多視点アプリケーションの開発を促進するために急速に進歩してきた。 しかし、コミュニティは2つの課題に直面している。 一 大量のラベルのないデータからノイズ又は不完全なビュー設定に対するロバスト表現の学習方法 二 様々な下流業務の整合性と相補性のバランスをとる方法 そこで我々はdeep fusion networkを用いてビュー固有の表現をview-common表現に融合し,高レベルセマンティクスを抽出してロバスト表現を得る。 さらに,融合ネットワークが自明な解決策に導くのを防ぐために,クラスタリングタスクを用いる。 一貫性と相補性のバランスをとるために、ビュー共通表現とビュー固有表現を整合させる非対称なコントラスト戦略を設計する。 これらのモジュールはClustering-guided cOntrastiVE fusioN (CLOVEN)として知られる統一的なメソッドに組み込まれる。 CLOVENはクラスタリングと分類において,11の競合的多視点学習方法よりも優れており,提案手法を5つのデータセット上で定量的に定性的に評価する。 不完全視シナリオでは,提案手法は競争相手よりもノイズ干渉に耐性がある。 さらに, 可視化解析により, cloven はビュー・コモム表現のコンパクト性を改善しつつ, ビュー固有表現の固有構造を保存できることを示した。 ソースコードは近くhttps://github.com/guanzhou-ke/cloven.comで入手できる。

The past two decades have seen increasingly rapid advances in the field of multi-view representation learning due to it extracting useful information from diverse domains to facilitate the development of multi-view applications. However, the community faces two challenges: i) how to learn robust representations from a large amount of unlabeled data to against noise or incomplete views setting, and ii) how to balance view consistency and complementary for various downstream tasks. To this end, we utilize a deep fusion network to fuse view-specific representations into the view-common representation, extracting high-level semantics for obtaining robust representation. In addition, we employ a clustering task to guide the fusion network to prevent it from leading to trivial solutions. For balancing consistency and complementary, then, we design an asymmetrical contrastive strategy that aligns the view-common representation and each view-specific representation. These modules are incorporated into a unified method known as CLustering-guided cOntrastiVE fusioN (CLOVEN). We quantitatively and qualitatively evaluate the proposed method on five datasets, demonstrating that CLOVEN outperforms 11 competitive multi-view learning methods in clustering and classification. In the incomplete view scenario, our proposed method resists noise interference better than those of our competitors. Furthermore, the visualization analysis shows that CLOVEN can preserve the intrinsic structure of view-specific representation while also improving the compactness of view-commom representation. Our source code will be available soon at https://github.com/guanzhou-ke/cloven.
翻訳日:2022-12-29 15:37:24 公開日:2022-12-28
# OVO:オンライン蒸留によるワンショットビジョントランスフォーマー検索

OVO: One-shot Vision Transformer Search with Online distillation ( http://arxiv.org/abs/2212.13766v1 )

ライセンス: Link先を確認
Zimian Wei, Hengyue Pan, Xin Niu, Dongsheng Li(参考訳) 最近、純粋なトランスフォーマーはビジョンタスクに大きな可能性を示しています。 しかし、中小のデータセットでの精度は十分ではない。 既存の方法では, 蒸留による指導過程を指導する教師としてcnnを導入する方法もあるが, 教師と生徒のネットワーク間のギャップは, 準最適性能に繋がる。 本研究では,オンライン蒸留を用いたワンショットビジョントランスフォーマー検索フレームワーク,すなわちOVOを提案する。 OVOは、蒸留結果を改善するために教師ネットワークと学生ネットワークの両方のサブネットをサンプリングする。 オンライン蒸留により、スーパーネットの何千ものサブネットは、余分な微調整や再訓練なしに十分に訓練されている。 実験では、OVO-TiはImageNetで73.32%、CIFAR-100で75.2%の精度を達成した。

Pure transformers have shown great potential for vision tasks recently. However, their accuracy in small or medium datasets is not satisfactory. Although some existing methods introduce a CNN as a teacher to guide the training process by distillation, the gap between teacher and student networks would lead to sub-optimal performance. In this work, we propose a new One-shot Vision transformer search framework with Online distillation, namely OVO. OVO samples sub-nets for both teacher and student networks for better distillation results. Benefiting from the online distillation, thousands of subnets in the supernet are well-trained without extra finetuning or retraining. In experiments, OVO-Ti achieves 73.32% top-1 accuracy on ImageNet and 75.2% on CIFAR-100, respectively.
翻訳日:2022-12-29 15:37:01 公開日:2022-12-28
# 拡散学習者としての視覚トランスフォーマーの探索

Exploring Vision Transformers as Diffusion Learners ( http://arxiv.org/abs/2212.13771v1 )

ライセンス: Link先を確認
He Cao, Jianan Wang, Tianhe Ren, Xianbiao Qi, Yihao Chen, Yuan Yao, Lei Zhang(参考訳) スコアベースの拡散モデルが広く注目を集め、近年の視覚生成タスクの急速な進展に資金を提供している。 本稿では,これまで無視されてきた拡散モデルバックボーンに着目した。 我々は様々な生成タスクの拡散学習者として視覚トランスフォーマーを体系的に探索する。 我々の改良により、バニラVTベースのバックボーン(IU-ViT)の性能は従来のU-Netベースの方法と同等に向上した。 さらに,非対称エンコーダデコーダ(ascend)を用いた生成課題に対する強いエンコーダの有効性を検証する概念実証実験を行い,生成バックボーンをエンコーダ-デコーダ構造として非結合化するという仮説を提示した。 CIFAR-10, CelebA, LSUN, CUB Bird, および高解像度テキスト・ツー・イメージタスクの競合性を実現する。 私たちの知る限りでは、64x64以上の解像度でテキストから画像へのタスクで単一の拡散モデルをうまくトレーニングした最初の例です。 これが、拡散ベースの生成モデルのためのモデリング選択とトレーニングパイプラインを再考する動機になることを期待しています。

Score-based diffusion models have captured widespread attention and funded fast progress of recent vision generative tasks. In this paper, we focus on diffusion model backbone which has been much neglected before. We systematically explore vision Transformers as diffusion learners for various generative tasks. With our improvements the performance of vanilla ViT-based backbone (IU-ViT) is boosted to be on par with traditional U-Net-based methods. We further provide a hypothesis on the implication of disentangling the generative backbone as an encoder-decoder structure and show proof-of-concept experiments verifying the effectiveness of a stronger encoder for generative tasks with ASymmetriC ENcoder Decoder (ASCEND). Our improvements achieve competitive results on CIFAR-10, CelebA, LSUN, CUB Bird and large-resolution text-to-image tasks. To the best of our knowledge, we are the first to successfully train a single diffusion model on text-to-image task beyond 64x64 resolution. We hope this will motivate people to rethink the modeling choices and the training pipelines for diffusion-based generative models.
翻訳日:2022-12-29 15:36:48 公開日:2022-12-28
# 眼周囲バイオメトリックス : 非拘束シナリオのモダリティ

Periocular Biometrics: A Modality for Unconstrained Scenarios ( http://arxiv.org/abs/2212.13792v1 )

ライセンス: Link先を確認
Fernando Alonso-Fernandez, Josef Bigun, Julian Fierrez, Naser Damer, Hugo Proen\c{c}a, Arun Ross(参考訳) 眼窩 (periocular) は、眼窩を取り囲む顔面の領域を指す。 これは機能豊富な領域であり、個人のアイデンティティを決定するために自分自身で使用できる。 これは、虹彩や顔を確実に取得できない場合に特に有用である。 これは、顔が部分的に遮られたり、被写体からカメラまでの距離が高かったりする非拘束的または非協力的なシナリオである。 しかし、マスクされた顔が原因でパンデミックで再び注目され、コントロールされたシナリオでも眼領域は唯一の目に見える顔領域として残されている。 本稿では、近視バイオメトリックスの現状について論じ、その最も重要な研究の枠組みを概観する。

Periocular refers to the region of the face that surrounds the eye socket. This is a feature-rich area that can be used by itself to determine the identity of an individual. It is especially useful when the iris or the face cannot be reliably acquired. This can be the case of unconstrained or uncooperative scenarios, where the face may appear partially occluded, or the subject-to-camera distance may be high. However, it has received revived attention during the pandemic due to masked faces, leaving the ocular region as the only visible facial area, even in controlled scenarios. This paper discusses the state-of-the-art of periocular biometrics, giving an overall framework of its most significant research aspects.
翻訳日:2022-12-29 15:36:28 公開日:2022-12-28
# ラベルフルーガー衛星画像変化検出のための対角的仮想体験学習

Adversarial Virtual Exemplar Learning for Label-Frugal Satellite Image Change Detection ( http://arxiv.org/abs/2212.13974v1 )

ライセンス: Link先を確認
Hichem Sahbi and Sebastien Deschamps(参考訳) 衛星画像変化検出は、異なる瞬間に撮影された特定のシーンにおける目標変化の検出を目的としている。 この課題は、獲得条件と変化の主観性のため、非常に困難である。 本稿では,能動学習を用いた衛星画像変化検出について検討する。 本手法は対話型であり,もっとも有意義なディスプレイ(仮想的な例)について oracle (ユーザ) の質問を問う質問と回答モデルに依存し,ユーザの回答に従って変更検出を更新できる。 本手法の主な貢献は,最も代表的で多様で不確実な仮想観念しか持たない,神託を軽率に探究できる,新たな敵対モデルである。 後者は、最も訓練された変更決定基準に挑戦するために学習され、最終的には、次のアクティブラーニングのイテレーションでこれらの基準をより良く再見積する。 実演実験では,他の表示戦略と関連する作業に対して,提案した対向ディスプレイモデルの有効性が示された。

Satellite image change detection aims at finding occurrences of targeted changes in a given scene taken at different instants. This task is highly challenging due to the acquisition conditions and also to the subjectivity of changes. In this paper, we investigate satellite image change detection using active learning. Our method is interactive and relies on a question and answer model which asks the oracle (user) questions about the most informative display (dubbed as virtual exemplars), and according to the user's responses, updates change detections. The main contribution of our method consists in a novel adversarial model that allows frugally probing the oracle with only the most representative, diverse and uncertain virtual exemplars. The latter are learned to challenge the most the trained change decision criteria which ultimately leads to a better re-estimate of these criteria in the following iterations of active learning. Conducted experiments show the out-performance of our proposed adversarial display model against other display strategies as well as the related work.
翻訳日:2022-12-29 15:35:59 公開日:2022-12-28
# NeMo: 同じアクションの複数のビデオインスタンスから得られる3次元神経運動場

NeMo: 3D Neural Motion Fields from Multiple Video Instances of the Same Action ( http://arxiv.org/abs/2212.13660v1 )

ライセンス: Link先を確認
Kuan-Chieh Wang, Zhenzhen Weng, Maria Xenochristou, Joao Pedro Araujo, Jeffrey Gu, C. Karen Liu, Serena Yeung(参考訳) 人間の3次元動作を再構築する作業は、より広範に応用されている。 金の標準モーションキャプチャ(MoCap)システムは正確だが、コスト、ハードウェア、空間の制約により一般大衆にはアクセスできない。 対照的に、モノクラーヒューマンメッシュリカバリ(HMR)メソッドは、シングルビュービデオを入力として扱うため、MoCapよりもはるかにアクセスしやすい。 モノクロHMR方式でマルチビューのMo-Capシステムをリプレースすることで、正確な3Dモーションを収集するための現在の障壁を壊し、モーション分析やモーションドリブンアニメーションといったエキサイティングな応用を一般大衆に届けることができる。 しかしながら、既存のHMRメソッドのパフォーマンスは、トレーニングに使用される既存のMoCapデータセットにはない、挑戦的でダイナミックな動きを含むと劣化する。 ダイナミックモーションは、前述のアプリケーションでしばしば3dモーションリカバリのターゲットとなるため、その魅力は低下する。 本研究の目的は、同一アクションの複数のビデオインスタンス間で共有される情報を活用することで、モノクラーHMRとマルチビューMoCapシステムのギャップを埋めることである。 ニューラルモーション(NeMo)の分野を紹介する。 同じアクションの一連のビデオで、基礎となる3Dモーションを表現するように最適化されている。 実験では,nemoが既存のhmr法を2次元キーポイント検出で上回るpenn actionデータセットのビデオを用いて,スポーツ中の3次元動作を復元できることを実証する。 さらに3Dメトリクスを用いてNeMoを検証するため,Penn Actionの動作を模倣する小さなMoCapデータセットを収集し,NeMoが様々なベースラインよりも優れた3D再構成を実現することを示す。

The task of reconstructing 3D human motion has wideranging applications. The gold standard Motion capture (MoCap) systems are accurate but inaccessible to the general public due to their cost, hardware and space constraints. In contrast, monocular human mesh recovery (HMR) methods are much more accessible than MoCap as they take single-view videos as inputs. Replacing the multi-view Mo- Cap systems with a monocular HMR method would break the current barriers to collecting accurate 3D motion thus making exciting applications like motion analysis and motiondriven animation accessible to the general public. However, performance of existing HMR methods degrade when the video contains challenging and dynamic motion that is not in existing MoCap datasets used for training. This reduces its appeal as dynamic motion is frequently the target in 3D motion recovery in the aforementioned applications. Our study aims to bridge the gap between monocular HMR and multi-view MoCap systems by leveraging information shared across multiple video instances of the same action. We introduce the Neural Motion (NeMo) field. It is optimized to represent the underlying 3D motions across a set of videos of the same action. Empirically, we show that NeMo can recover 3D motion in sports using videos from the Penn Action dataset, where NeMo outperforms existing HMR methods in terms of 2D keypoint detection. To further validate NeMo using 3D metrics, we collected a small MoCap dataset mimicking actions in Penn Action,and show that NeMo achieves better 3D reconstruction compared to various baselines.
翻訳日:2022-12-29 15:27:17 公開日:2022-12-28
# 微粒な視覚認識のための部分誘導型リレーショナルトランス

Part-guided Relational Transformers for Fine-grained Visual Recognition ( http://arxiv.org/abs/2212.13685v1 )

ライセンス: Link先を確認
Yifan Zhao, Jia Li, Xiaowu Chen, Yonghong Tian(参考訳) きめ細かい視覚認識は、視覚的に類似した外観を持つオブジェクトをサブカテゴリに分類することであり、深層CNNの開発で大きな進歩を遂げている。 しかし、異なるサブカテゴリ間の微妙な差異を扱うことは依然として課題である。 本稿では,この問題を2つの側面,すなわち特徴レベルの相互関係の構築と,部分レベルの識別的特徴の獲得から解くことを提案する。 このフレームワークは、PArt-Guided Relational Transformer (PART) と呼ばれるもので、自動部分探索モジュールを用いて識別部分の特徴を学習し、自然言語処理の分野からTransformerモデルを適用することで特徴変換モジュールと固有の相関関係を探索する。 部分発見モジュールは、勾配降下手順に高度に対応する識別領域を効率よく発見する。 次に、第2の特徴変換モジュールは、グローバル埋め込みと複数部分埋め込みの相関関係を構築し、セマンティックピクセル間の空間的相互作用を強化する。 さらに,提案手法は推定時間に付加的な部分分岐を依存せず,広く使用されている3つのオブジェクト認識ベンチマーク上で最先端の性能に達する。 実験結果と説明可能な可視化は,提案手法の有効性を示す。 コードはhttps://github.com/icvteam/partにある。

Fine-grained visual recognition is to classify objects with visually similar appearances into subcategories, which has made great progress with the development of deep CNNs. However, handling subtle differences between different subcategories still remains a challenge. In this paper, we propose to solve this issue in one unified framework from two aspects, i.e., constructing feature-level interrelationships, and capturing part-level discriminative features. This framework, namely PArt-guided Relational Transformers (PART), is proposed to learn the discriminative part features with an automatic part discovery module, and to explore the intrinsic correlations with a feature transformation module by adapting the Transformer models from the field of natural language processing. The part discovery module efficiently discovers the discriminative regions which are highly-corresponded to the gradient descent procedure. Then the second feature transformation module builds correlations within the global embedding and multiple part embedding, enhancing spatial interactions among semantic pixels. Moreover, our proposed approach does not rely on additional part branches in the inference time and reaches state-of-the-art performance on 3 widely-used fine-grained object recognition benchmarks. Experimental results and explainable visualizations demonstrate the effectiveness of our proposed approach. The code can be found at https://github.com/iCVTEAM/PART.
翻訳日:2022-12-29 15:26:50 公開日:2022-12-28
# ロバストシーケンスネットワークサブモジュラー最大化

Robust Sequence Networked Submodular Maximization ( http://arxiv.org/abs/2212.13725v1 )

ライセンス: Link先を確認
Qihao Shi, Bingyang Fu, Can Wang, Jiawei Chen, Sheng Zhou, Yan Feng, Chun Chen(参考訳) 本稿では, アンダーライン{R}obust \underline{o}ptimization for \underline{se}quence \underline{Net}worked \underline{s}ubmodular maximization (RoseNets) 問題について検討する。 配列ネットワークによる部分モジュラー最大化により、ロバストな最適化を行う。 要素は有向非巡回グラフで連結され、目的関数は要素上ではなくグラフの辺上で部分モジュラーである。 このようなネットワーク化されたサブモジュラーシナリオでは、要素をシーケンスから削除する影響は、シーケンスとネットワークの位置の両方に依存する。 これにより、既存のロバストアルゴリズムは適用できない。 本稿では、RoseNets問題を研究するための第一歩を踏み出す。 我々は、選択した要素の任意の部分集合の除去に対して頑健な頑健な欲求アルゴリズムを設計する。 アルゴリズムの近似比は、除去された要素の数とネットワークトポロジーの両方に依存する。 さらに、推奨とリンク予測の実際の応用に関する実験を行う。 実験の結果,提案アルゴリズムの有効性が示された。

In this paper, we study the \underline{R}obust \underline{o}ptimization for \underline{se}quence \underline{Net}worked \underline{s}ubmodular maximization (RoseNets) problem. We interweave the robust optimization with the sequence networked submodular maximization. The elements are connected by a directed acyclic graph and the objective function is not submodular on the elements but on the edges in the graph. Under such networked submodular scenario, the impact of removing an element from a sequence depends both on its position in the sequence and in the network. This makes the existing robust algorithms inapplicable. In this paper, we take the first step to study the RoseNets problem. We design a robust greedy algorithm, which is robust against the removal of an arbitrary subset of the selected elements. The approximation ratio of the algorithm depends both on the number of the removed elements and the network topology. We further conduct experiments on real applications of recommendation and link prediction. The experimental results demonstrate the effectiveness of the proposed algorithm.
翻訳日:2022-12-29 15:19:44 公開日:2022-12-28
# やめて - ルールベースのガイダンスによる強化学習を推奨する

Don't do it: Safer Reinforcement Learning With Rule-based Guidance ( http://arxiv.org/abs/2212.13819v1 )

ライセンス: Link先を確認
Ekaterina Nikonova, Cheng Xue, Jochen Renz(参考訳) 訓練中、強化学習システムは行動の安全性を考慮せずに世界と対話する。 現実世界に配備されると、そのようなシステムは危険であり、環境に害を与える可能性がある。 しばしば危険な状況は、システムがいかなる条件の下でも違反すべきでない一連のルールを定義することで軽減される。 例えば、ロボットナビゲーションでは、周囲の物体や人と衝突しないようにする安全ルールがある。 本研究では,エージェントとオブジェクトの関係の観点から安全ルールを定義し,強化学習システムが潜在的に有害な行動を起こすことを防止する。 本稿では,安全ルールを用いて,安全でないと判断されたエージェントの行動をオーバーライドする新しい安全エプシロングレーディアルゴリズムを提案する。 実験の結果, 安全エプシロングレーディポリシはトレーニング中のエージェントの安全性を著しく向上させ, 学習効率を向上し, 収束がより早くなり, ベースモデルよりも優れた性能が得られることがわかった。

During training, reinforcement learning systems interact with the world without considering the safety of their actions. When deployed into the real world, such systems can be dangerous and cause harm to their surroundings. Often, dangerous situations can be mitigated by defining a set of rules that the system should not violate under any conditions. For example, in robot navigation, one safety rule would be to avoid colliding with surrounding objects and people. In this work, we define safety rules in terms of the relationships between the agent and objects and use them to prevent reinforcement learning systems from performing potentially harmful actions. We propose a new safe epsilon-greedy algorithm that uses safety rules to override agents' actions if they are considered to be unsafe. In our experiments, we show that a safe epsilon-greedy policy significantly increases the safety of the agent during training, improves the learning efficiency resulting in much faster convergence, and achieves better performance than the base model.
翻訳日:2022-12-29 15:19:28 公開日:2022-12-28
# MyI-Net:心臓血管MRIによる心筋梗塞の自動検出と定量化

MyI-Net: Fully Automatic Detection and Quantification of Myocardial Infarction from Cardiovascular MRI Images ( http://arxiv.org/abs/2212.13715v1 )

ライセンス: Link先を確認
Shuihua Wang, Ahmed M.S.E.K Abdelaty, Kelly Parke, J Ranjit Arnold, Gerry P McCann, Ivan Y Tyukin(参考訳) 心臓発作 (heart attack) または心筋梗塞 (mi) は、心臓に血液を供給する動脈が突然閉塞すると起こる。 MIイメージングの「ゴールドスタンダード」法は、心血管系磁気共鳴イメージング(MRI)であり、ガドリニウムベースのコントラスト(後期ガドリニウム増強)を静脈内投与する。 しかし、MIの定量化のための完全に自動化された「金の標準」は存在しない。 本研究では,MRI画像中のMIの検出と定量化のためのエンドツーエンド完全自動システム(MyI-Net)を提案する。 これは、研究所間の技術的多様性とデータとラベルの固有の問題による不確実性を減らす可能性がある。 本システムは,大規模情報の流れを維持するために設計された4つの処理段階からなる。 まず、ResNetとMoblieNetアーキテクチャ上に構築された特徴抽出器を使って生のMRI画像から特徴を生成する。 これに続いて、Atrous Space Pyramid Pooling (ASPP) が、より多くの画像コンテキストを保存するために異なるスケールで空間情報を生成する。 asppおよび初期低レベル特徴のハイレベル特徴を第3段階に連結し、アップサンプリングにより空間情報を復元し、最終的な画像分割結果を生成する第4段階に渡す。 i) 背景 ii) 心臓の筋肉 三 血液及び血液 iv)スカーエリア。 新しいモデルは最先端のモデルと手動の定量化と比較された。 本モデルでは, 臨床医が作製した輪郭に一致する傷痕画素の4倍の性能を含む, 最先端の作業に対するグローバルセグメンテーションと傷痕組織検出に好適な性能を示した。

A "heart attack" or myocardial infarction (MI), occurs when an artery supplying blood to the heart is abruptly occluded. The "gold standard" method for imaging MI is Cardiovascular Magnetic Resonance Imaging (MRI), with intravenously administered gadolinium-based contrast (late gadolinium enhancement). However, no "gold standard" fully automated method for the quantification of MI exists. In this work, we propose an end-to-end fully automatic system (MyI-Net) for the detection and quantification of MI in MRI images. This has the potential to reduce the uncertainty due to the technical variability across labs and inherent problems of the data and labels. Our system consists of four processing stages designed to maintain the flow of information across scales. First, features from raw MRI images are generated using feature extractors built on ResNet and MoblieNet architectures. This is followed by the Atrous Spatial Pyramid Pooling (ASPP) to produce spatial information at different scales to preserve more image context. High-level features from ASPP and initial low-level features are concatenated at the third stage and then passed to the fourth stage where spatial information is recovered via up-sampling to produce final image segmentation output into: i) background, ii) heart muscle, iii) blood and iv) scar areas. New models were compared with state-of-art models and manual quantification. Our models showed favorable performance in global segmentation and scar tissue detection relative to state-of-the-art work, including a four-fold better performance in matching scar pixels to contours produced by clinicians.
翻訳日:2022-12-29 15:12:18 公開日:2022-12-28
# 隣接画素の差分に基づく単一画像超解像再構成

Single-Image Super-Resolution Reconstruction based on the Differences of Neighboring Pixels ( http://arxiv.org/abs/2212.13730v1 )

ライセンス: Link先を確認
Huipeng Zheng, Lukman Hakim, Takio Kurita, Junichi Miyao(参考訳) 深層学習技術は、単一画像超解像(SISR)の性能向上に用いられた。 しかし、既存のcnnベースのsisrアプローチのほとんどは、より深いネットワークを構築することに集中し、より重要なハイレベルな機能を抽出する。 通常、目標高分解能画像と推定画像との画素レベルの損失を用いるが、画像内の画素間の隣接関係はめったに使われない。 一方、観測によれば、ピクセルの隣接関係は、空間構造、局所的文脈、構造的知識に関する豊富な情報を含んでいる。 そこで本稿では,画素の隣接関係を異なる視点で活用し,推定画像と接地画像からグラフを構築することにより,隣接画素の差異を利用してcnnを正則化する手法を提案する。 提案手法は,ベンチマークデータセットの定量的・質的評価において最先端手法を上回っている。 キーワード:超解像、畳み込みニューラルネットワーク、ディープラーニング

The deep learning technique was used to increase the performance of single image super-resolution (SISR). However, most existing CNN-based SISR approaches primarily focus on establishing deeper or larger networks to extract more significant high-level features. Usually, the pixel-level loss between the target high-resolution image and the estimated image is used, but the neighbor relations between pixels in the image are seldom used. On the other hand, according to observations, a pixel's neighbor relationship contains rich information about the spatial structure, local context, and structural knowledge. Based on this fact, in this paper, we utilize pixel's neighbor relationships in a different perspective, and we propose the differences of neighboring pixels to regularize the CNN by constructing a graph from the estimated image and the ground-truth image. The proposed method outperforms the state-of-the-art methods in terms of quantitative and qualitative evaluation of the benchmark datasets. Keywords: Super-resolution, Convolutional Neural Networks, Deep Learning
翻訳日:2022-12-29 15:11:52 公開日:2022-12-28
# 画素関係に基づく網膜血管画像分割のための正則化器

Pixel Relationships-based Regularizer for Retinal Vessel Image Segmentation ( http://arxiv.org/abs/2212.13731v1 )

ライセンス: Link先を確認
Lukman Hakim, Takio Kurita(参考訳) 画像セグメンテーションのタスクは、適切なラベルに基づいて画像の各ピクセルを分類することである。 高い精度と深いアーキテクチャを提供する画像セグメンテーションに様々なディープラーニングアプローチが提案されている。 しかし、ディープラーニング技術は、トレーニングプロセスに画素単位の損失関数を使用する。 ピクセル単位の損失は,ネットワーク学習過程におけるピクセル近傍関係を無視した。 画素の隣接関係は、画像における必須情報である。 隣接するピクセル情報を利用することは、ピクセル間情報のみを使用するよりも有利である。 本研究では,正則化器を用いて画素近傍の関係情報を学習プロセスに提供する。 グラフ理論のアプローチでは、グラフラプラシアン(graph laplacian)は、出力画像と接地画像に基づく分割画像の滑らかさを利用する。 トポロジーアプローチにより、オイラー特性は、セグメント化された画像上の孤立した物体の数を同定し、最小化する。 実験により,提案手法はピクセル隣接関係をキャプチャし,正規化項を使わずに,畳み込みニューラルネットワークの性能を向上させることを実証した。

The task of image segmentation is to classify each pixel in the image based on the appropriate label. Various deep learning approaches have been proposed for image segmentation that offers high accuracy and deep architecture. However, the deep learning technique uses a pixel-wise loss function for the training process. Using pixel-wise loss neglected the pixel neighbor relationships in the network learning process. The neighboring relationship of the pixels is essential information in the image. Utilizing neighboring pixel information provides an advantage over using only pixel-to-pixel information. This study presents regularizers to give the pixel neighbor relationship information to the learning process. The regularizers are constructed by the graph theory approach and topology approach: By graph theory approach, graph Laplacian is used to utilize the smoothness of segmented images based on output images and ground-truth images. By topology approach, Euler characteristic is used to identify and minimize the number of isolated objects on segmented images. Experiments show that our scheme successfully captures pixel neighbor relations and improves the performance of the convolutional neural network better than the baseline without a regularization term.
翻訳日:2022-12-29 15:11:35 公開日:2022-12-28
# SynCLay:Bespokeセルレイアウトからの組織像のインタラクティブな合成

SynCLay: Interactive Synthesis of Histology Images from Bespoke Cellular Layouts ( http://arxiv.org/abs/2212.13780v1 )

ライセンス: Link先を確認
Srijay Deshpande, Muhammad Dawood, Fayyaz Minhas, Nasir Rajpoot(参考訳) 組織像の自動合成は、計算病理学にいくつかの潜在的応用がある。 しかし, 既存の方法では, 細胞レイアウトやユーザ定義の組織学パラメータを用いて, 現実的な組織像を生成できない。 本研究では,ユーザが定義したセルレイアウトとアノテートされたセル境界から,現実的で高品質な組織像を構築できるSynCLay(Synthesis from Cellular Layouts)という新しいフレームワークを提案する。 組織像の生成は, 様々なタイプの細胞の任意のトポロジ的配置から, 異なる組織パターンを生成することができる。 synclayが生成する合成画像は、腫瘍微小環境に存在する様々な種類の細胞の役割を研究するのに有用である。 さらに、データ不均衡の影響を最小限に抑えて正確な細胞組成予測器を設計するために、組織画像中の細胞数分布のバランスをとるのを助けることができる。 我々は,synclayを敵対的な方法で訓練し,核分節と分類モデルを統合し,核構造を洗練し,合成画像と共に核マスクを生成する。 推測中、このモデルと別のパラメトリックモデルを組み合わせて、異なる細胞の分化度と細胞密度を与えられたアノテーションとして、大腸画像および関連する細胞数を生成する。 そこで本研究では,本フレームワークで生成した画像にリアリズムスコアを割り当てた臨床病理医のフィードバックを定量的に評価する。 合成画像のすべての病理学者の平均的リアリズムスコアは、実際の画像のそれと同程度であった。 また,本フレームワークが生成する合成データによる実データ拡張により,セル構成予測タスクの予測性能が大幅に向上することを示す。

Automated synthesis of histology images has several potential applications in computational pathology. However, no existing method can generate realistic tissue images with a bespoke cellular layout or user-defined histology parameters. In this work, we propose a novel framework called SynCLay (Synthesis from Cellular Layouts) that can construct realistic and high-quality histology images from user-defined cellular layouts along with annotated cellular boundaries. Tissue image generation based on bespoke cellular layouts through the proposed framework allows users to generate different histological patterns from arbitrary topological arrangement of different types of cells. SynCLay generated synthetic images can be helpful in studying the role of different types of cells present in the tumor microenvironmet. Additionally, they can assist in balancing the distribution of cellular counts in tissue images for designing accurate cellular composition predictors by minimizing the effects of data imbalance. We train SynCLay in an adversarial manner and integrate a nuclear segmentation and classification model in its training to refine nuclear structures and generate nuclear masks in conjunction with synthetic images. During inference, we combine the model with another parametric model for generating colon images and associated cellular counts as annotations given the grade of differentiation and cell densities of different cells. We assess the generated images quantitatively and report on feedback from trained pathologists who assigned realism scores to a set of images generated by the framework. The average realism score across all pathologists for synthetic images was as high as that for the real images. We also show that augmenting limited real data with the synthetic data generated by our framework can significantly boost prediction performance of the cellular composition prediction task.
翻訳日:2022-12-29 15:11:21 公開日:2022-12-28
# 胸部X線画像を用いた新型コロナウイルス検出のための説明可能軽量モデル

Explainable and Lightweight Model for COVID-19 Detection Using Chest Radiology Images ( http://arxiv.org/abs/2212.13788v1 )

ライセンス: Link先を確認
Suba S and Nita Parekh(参考訳) CXR(Chest X-ray)とCT(Computed Tomography)の画像のディープラーニング(DL)解析は、新型コロナウイルスのパンデミックにより近年多くの注目を集めている。 畳み込みニューラルネットワーク(CNN)は、大量のデータをトレーニングする際に画像解析タスクに適している。 医用画像解析のために開発されたアプリケーションは、他のどの分野よりも高い感度と精度を必要とする。 新型コロナウイルス(COVID-19)の検出のためのツールのほとんどは、感度とリコールが高いが、目に見えないデータセットでのテストでは、一般化と実行に失敗している。 そこで我々は,クラスアクティベーションマップ(Grad-weighted Class Activation Mapping)を用いたクラスアクティベーションマップを用いて,CNNモデルを開発し,そのモデルの性能を解析し,理解することを可能にした。 本研究は,提案モデルの成功と失敗について,画像レベルでの詳細な議論を提供する。 モデルの性能は最先端のDLモデルと比較され、同等であることが示されている。 使用されるデータとコードはhttps://github.com/aleesuss/c19.com/で入手できる。

Deep learning (DL) analysis of Chest X-ray (CXR) and Computed tomography (CT) images has garnered a lot of attention in recent times due to the COVID-19 pandemic. Convolutional Neural Networks (CNNs) are well suited for the image analysis tasks when trained on humongous amounts of data. Applications developed for medical image analysis require high sensitivity and precision compared to any other fields. Most of the tools proposed for detection of COVID-19 claims to have high sensitivity and recalls but have failed to generalize and perform when tested on unseen datasets. This encouraged us to develop a CNN model, analyze and understand the performance of it by visualizing the predictions of the model using class activation maps generated using (Gradient-weighted Class Activation Mapping) Grad-CAM technique. This study provides a detailed discussion of the success and failure of the proposed model at an image level. Performance of the model is compared with state-of-the-art DL models and shown to be comparable. The data and code used are available at https://github.com/aleesuss/c19.
翻訳日:2022-12-29 15:10:57 公開日:2022-12-28
# 条件付き発電機によるマルチリアリズム画像圧縮

Multi-Realism Image Compression with a Conditional Generator ( http://arxiv.org/abs/2212.13824v1 )

ライセンス: Link先を確認
Eirikur Agustsson, David Minnen, George Toderici, Fabian Mentzer(参考訳) レート歪み-リアリズムトレードオフを最適化することにより、生成圧縮アプローチは、レート歪み最適化モデルによって生成されたぼやけた再構成ではなく、低ビットレートでも詳細で現実的な画像を生成する。 しかし, 従来の手法では, どれだけの細部が合成されるかは明確に制御されておらず, 利用者は入力画像から遠く離れた誤解を招く再構成が生成されることを心配している。 本研究では,2つの体制を橋渡しし,歪みリアリズムのトレードオフをナビゲートするデコーダを訓練することで,これらの懸念を軽減する。 単一の圧縮された表現から、受信側は入力に近い低い平均2乗誤差再構成、高い知覚的品質の現実的再構成、あるいはその中間のあらゆるものを再構築することができる。 提案手法では,変形実数論における新たな最先端の設定を行い,実現可能な歪み実数対のフロンティア,すなわち高実数論におけるより優れた歪みと低歪み下でのより良い実数論を実現する。

By optimizing the rate-distortion-realism trade-off, generative compression approaches produce detailed, realistic images, even at low bit rates, instead of the blurry reconstructions produced by rate-distortion optimized models. However, previous methods do not explicitly control how much detail is synthesized, which results in a common criticism of these methods: users might be worried that a misleading reconstruction far from the input image is generated. In this work, we alleviate these concerns by training a decoder that can bridge the two regimes and navigate the distortion-realism trade-off. From a single compressed representation, the receiver can decide to either reconstruct a low mean squared error reconstruction that is close to the input, a realistic reconstruction with high perceptual quality, or anything in between. With our method, we set a new state-of-the-art in distortion-realism, pushing the frontier of achievable distortion-realism pairs, i.e., our method achieves better distortions at high realism and better realism at low distortion than ever before.
翻訳日:2022-12-29 15:10:39 公開日:2022-12-28
# ccfl: 計算にカスタマイズされた連合学習

CCFL: Computationally Customized Federated Learning ( http://arxiv.org/abs/2212.13679v1 )

ライセンス: Link先を確認
Hao Zhang, Tingting Wu, Siyao Cheng, Jie Liu(参考訳) フェデレートラーニング(Federated Learning, FL)は、IoTデバイスなどの多数の参加者から分散データでモデルをトレーニングする手法である。 本来は参加者に均一な能力を与える。 しかし、参加者は様々なエネルギー予算や並列無関係タスクの実行といった異なる条件のために、実際に様々な計算資源を持っている。 非効率な計算資源を持つ参加者の計算オーバーヘッドを低減する必要があるが、そうでなければ、完全なトレーニングプロセスを終えることができないだろう。 本稿では,計算の不均質性に対処するために,計算集約的な反復を伴わずに局所モデルを推定する手法を提案する。 そこで本研究では,各参加者が現在の計算資源に基づいて,各ラウンドで従来のローカルトレーニングを行うか,あるいはモデル推定を行うかを決定することができるCCFL(Computationally Customized Federated Learning)を提案する。 理論解析と徹底的な実験は、CCFLがリソース制約なしでFedAvgと同じ収束率を持つことを示している。 さらに、CCFLは計算オーバーヘッドを大幅に削減しつつモデル性能を維持するFedAvgの計算効率の向上を見ることができる。

Federated learning (FL) is a method to train model with distributed data from numerous participants such as IoT devices. It inherently assumes a uniform capacity among participants. However, participants have diverse computational resources in practice due to different conditions such as different energy budgets or executing parallel unrelated tasks. It is necessary to reduce the computation overhead for participants with inefficient computational resources, otherwise they would be unable to finish the full training process. To address the computation heterogeneity, in this paper we propose a strategy for estimating local models without computationally intensive iterations. Based on it, we propose Computationally Customized Federated Learning (CCFL), which allows each participant to determine whether to perform conventional local training or model estimation in each round based on its current computational resources. Both theoretical analysis and exhaustive experiments indicate that CCFL has the same convergence rate as FedAvg without resource constraints. Furthermore, CCFL can be viewed of a computation-efficient extension of FedAvg that retains model performance while considerably reducing computation overhead.
翻訳日:2022-12-29 15:02:45 公開日:2022-12-28
# Heated Alert Triage (HeAT):多段階攻撃を抽出するためのトランスファー可能な学習

HeATed Alert Triage (HeAT): Transferrable Learning to Extract Multistage Attack Campaigns ( http://arxiv.org/abs/2212.13941v1 )

ライセンス: Link先を確認
Stephen Moskal and Shanchieh Jay Yang(参考訳) 複雑なネットワーク構造と組み合わされたサイバー攻撃の高度化と量の増大により、セキュリティアナリストがネットワーク上のマルチステージキャンペーンを特定する証拠を裏付けることは極めて困難になっている。 この研究はHeAT (Heated Alert Triage): 妥協のクリティカルな指標(IoC)、例えば激しいIDS警告を与えられたHeATは、重要な出来事に繋がった多段階の活動を描いたHeATed Attack Campaign (HAC)を作成する。 我々は、ネットワークとセキュリティに関する知識から、重要なIoCの攻撃キャンペーンにイベントがどの程度貢献するかというアナリストの意見を表すために、"Alert Episode Heat"の概念を定義した。 ネットワークに依存しない機能セットを活用することで、HeATは、少数のIoCに対してアナリストによる"HeAT"の評価の本質を学習し、学習モデルを適用して、これまでに見たことのないIoCに対する洞察に富んだ攻撃キャンペーンを、ネットワークをまたいでも抽出する。 我々は,cptc(collegiate penetration testing competition)で収集されたデータと実世界のsocとのコラボレーションによる熱の能力を示す。 我々は,ipアドレスがエビデンスをコラボレートするために使用される一般的な手法と比較して,抽出された攻撃キャンペーンからアナリストがどのように評価し利益を得られるかを実証するために,ヒートゲインメトリクスを開発した。 本研究は,多様な攻撃段階にまたがるキャンペーンを見つけ,無関係な警告を大量に取り除き,アナリストの当初の評価に整合性を持たせることで,HeATの実用的利用を実証するものである。

With growing sophistication and volume of cyber attacks combined with complex network structures, it is becoming extremely difficult for security analysts to corroborate evidences to identify multistage campaigns on their network. This work develops HeAT (Heated Alert Triage): given a critical indicator of compromise (IoC), e.g., a severe IDS alert, HeAT produces a HeATed Attack Campaign (HAC) depicting the multistage activities that led up to the critical event. We define the concept of "Alert Episode Heat" to represent the analysts opinion of how much an event contributes to the attack campaign of the critical IoC given their knowledge of the network and security expertise. Leveraging a network-agnostic feature set, HeAT learns the essence of analyst's assessment of "HeAT" for a small set of IoC's, and applies the learned model to extract insightful attack campaigns for IoC's not seen before, even across networks by transferring what have been learned. We demonstrate the capabilities of HeAT with data collected in Collegiate Penetration Testing Competition (CPTC) and through collaboration with a real-world SOC. We developed HeAT-Gain metrics to demonstrate how analysts may assess and benefit from the extracted attack campaigns in comparison to common practices where IP addresses are used to corroborate evidences. Our results demonstrates the practical uses of HeAT by finding campaigns that span across diverse attack stages, remove a significant volume of irrelevant alerts, and achieve coherency to the analyst's original assessments.
翻訳日:2022-12-29 15:01:54 公開日:2022-12-28
# DNNに基づくMoM-GANによる汚染データの分布推定

Distribution Estimation of Contaminated Data via DNN-based MoM-GANs ( http://arxiv.org/abs/2212.13741v1 )

ライセンス: Link先を確認
Fang Xie, Lihu Xu, Qiuran Yao, Huiming Zhang(参考訳) 本稿では, GAN (Generative Adversarial Net) とMoM (Central-of-mean) を組み合わせたMoM-GAN法による汚染データの分布推定について検討する。 我々は、ReLUアクティベーション機能を備えたディープニューラルネットワーク(DNN)を用いて、GANのジェネレータと識別器をモデル化する。 理論的には、DNNベースのMoM-GAN推定器に対して、$b$-smoothness H\"{o}lderクラスで測定された非漸近誤差を導出する。 誤差境界は基本的に$n^{-b/p}\vee n^{-1/2}$として減少し、$n$と$p$は入力データのサンプルサイズと寸法である。 我々は,MoM-GAN法のアルゴリズムを2つの実アプリケーションで実装する。 その結果,汚染データを扱う場合,MoM-GANは他の競合手法よりも優れていた。

This paper studies the distribution estimation of contaminated data by the MoM-GAN method, which combines generative adversarial net (GAN) and median-of-mean (MoM) estimation. We use a deep neural network (DNN) with a ReLU activation function to model the generator and discriminator of the GAN. Theoretically, we derive a non-asymptotic error bound for the DNN-based MoM-GAN estimator measured by integral probability metrics with the $b$-smoothness H\"{o}lder class. The error bound decreases essentially as $n^{-b/p}\vee n^{-1/2}$, where $n$ and $p$ are the sample size and the dimension of input data. We give an algorithm for the MoM-GAN method and implement it through two real applications. The numerical results show that the MoM-GAN outperforms other competitive methods when dealing with contaminated data.
翻訳日:2022-12-29 15:01:06 公開日:2022-12-28
# 一般関数近似を用いたオフラインRLの線形プログラミングフレームワークの再検討

Revisiting the Linear-Programming Framework for Offline RL with General Function Approximation ( http://arxiv.org/abs/2212.13861v1 )

ライセンス: Link先を確認
Asuman Ozdaglar, Sarath Pattathil, Jiawei Zhang, Kaiqing Zhang(参考訳) オフライン強化学習(rl)は、事前収集されたデータセットから逐次的な意思決定のための最適なポリシーを追求する。 最近の理論的進歩は、データカバレッジと関数近似に関する様々な緩和された仮定を持つサンプル効率の良いオフラインRLアルゴリズムの開発に焦点を当てている。 その中でも,マルコフ決定過程の線形プログラミング (LP) の再構成に基づくフレームワークは,関数近似を用いたサンプル効率のよいオフラインRLを実現することを約束している。 本研究では,オフラインrlのためのlpフレームワークを再検討し,既存の結果をいくつかの側面で前進させ,一定の仮定を緩和し,サンプルサイズの観点から最適統計率を達成する。 我々のキーとなるイネーブルは、文学のように正規化を使わず、時には関数クラスや初期状態分布を慎重に選択する代わりに、改革に適切な制約を導入することです。 我々は、LPフレームワークの研究や、オフラインRLにおけるプリマル・デュアル・ミニマックス最適化のさらなる推進を期待する。

Offline reinforcement learning (RL) concerns pursuing an optimal policy for sequential decision-making from a pre-collected dataset, without further interaction with the environment. Recent theoretical progress has focused on developing sample-efficient offline RL algorithms with various relaxed assumptions on data coverage and function approximators, especially to handle the case with excessively large state-action spaces. Among them, the framework based on the linear-programming (LP) reformulation of Markov decision processes has shown promise: it enables sample-efficient offline RL with function approximation, under only partial data coverage and realizability assumptions on the function classes, with favorable computational tractability. In this work, we revisit the LP framework for offline RL, and advance the existing results in several aspects, relaxing certain assumptions and achieving optimal statistical rates in terms of sample size. Our key enabler is to introduce proper constraints in the reformulation, instead of using any regularization as in the literature, sometimes also with careful choices of the function classes and initial state distributions. We hope our insights further advocate the study of the LP framework, as well as the induced primal-dual minimax optimization, in offline RL.
翻訳日:2022-12-29 15:00:51 公開日:2022-12-28
# 変分不等式アルゴリズムの黄金比を超えて

Beyond the Golden Ratio for Variational Inequality Algorithms ( http://arxiv.org/abs/2212.13955v1 )

ライセンス: Link先を確認
Ahmet Alacaoglu, Axel B\"ohm, Yura Malitsky(参考訳) ステップサイズを局所リプシッツ定数に適応させることにより,単調変分不等式 (VI) と凸凹 min-max 問題の解法である $\textit{golden ratio algorithm}$ の理解を改善した。 適応的なステップサイズはハイパーパラメータを選択する必要をなくすだけでなく、グローバルリプシッツ連続性の必要性を取り除き、イテレーションを1回から次のイテレーションに増やすことができる。 我々はまず, 一定のステップサイズを持つ非制約の場合において, 反射勾配, ポポフ, あるいは楽観勾配勾配上昇などのVI法を用いて, このアルゴリズムの等価性を確立する。 次に、制約された設定に移行し、より大きなステップサイズを使用できる新しい分析を導入し、黄金比アルゴリズムと文献における既存のアルゴリズムの間の橋渡しを完了します。 すると、黄金比 $\frac{1+\sqrt{5}}{2}$ とアルゴリズムの間のリンクを実際に排除します。 さらに,まず最大ステップサイズハイパーパラメータ(解析結果からのアーティファクト)を除去して複雑性境界を改善するとともに,弱いミンティ解の非単調問題に調整し,実験性能を向上することでアルゴリズムの適応性を向上させる。

We improve the understanding of the $\textit{golden ratio algorithm}$, which solves monotone variational inequalities (VI) and convex-concave min-max problems via the distinctive feature of adapting the step sizes to the local Lipschitz constants. Adaptive step sizes not only eliminate the need to pick hyperparameters, but they also remove the necessity of global Lipschitz continuity and can increase from one iteration to the next. We first establish the equivalence of this algorithm with popular VI methods such as reflected gradient, Popov or optimistic gradient descent-ascent in the unconstrained case with constant step sizes. We then move on to the constrained setting and introduce a new analysis that allows to use larger step sizes, to complete the bridge between the golden ratio algorithm and the existing algorithms in the literature. Doing so, we actually eliminate the link between the golden ratio $\frac{1+\sqrt{5}}{2}$ and the algorithm. Moreover, we improve the adaptive version of the algorithm, first by removing the maximum step size hyperparameter (an artifact from the analysis) to improve the complexity bound, and second by adjusting it to nonmonotone problems with weak Minty solutions, with superior empirical performance.
翻訳日:2022-12-29 15:00:28 公開日:2022-12-28
# エッジデバイスにおける効率的なセマンティックセグメンテーション

Efficient Semantic Segmentation on Edge Devices ( http://arxiv.org/abs/2212.13691v1 )

ライセンス: Link先を確認
Farshad Safavi, Irfan Ali, Venkatesh Dasari, Guanqun Song, Ting Zhu(参考訳) セマンティックセグメンテーションは、画像の各ピクセルをクラスに割り当てるためのコンピュータビジョンアルゴリズムで動作する。 セグメンテーションのタスクは、正確性と効率の両方で実行されるべきである。 既存のディープFCNのほとんどは計算量が多いため、これらのネットワークは非常に強力で、ポータブルデバイス上のリアルタイムアプリケーションには適さない。 本研究は,現在のセマンティクスセグメンテーションモデルを分析し,災害時の緊急対応にこれらのモデルを適用する可能性を検討する。 実時間意味セグメンテーションモデルの性能を,対向環境下での空中画像に制約された非実時間セグメンテーションモデルと比較する。 さらに,Hurricane Harveyの後に捉えたUAV画像を含むFlood-Netデータセット上で,複数のモデルをトレーニングし,浸水した建物と非流出した建物と浸水した道路と非流出した道路とをベンチマークした。 本稿では,リアルタイムなUNetベースモデルを開発し,そのネットワークをJetson AGX Xavierモジュール上に展開した。

Semantic segmentation works on the computer vision algorithm for assigning each pixel of an image into a class. The task of semantic segmentation should be performed with both accuracy and efficiency. Most of the existing deep FCNs yield to heavy computations and these networks are very power hungry, unsuitable for real-time applications on portable devices. This project analyzes current semantic segmentation models to explore the feasibility of applying these models for emergency response during catastrophic events. We compare the performance of real-time semantic segmentation models with non-real-time counterparts constrained by aerial images under oppositional settings. Furthermore, we train several models on the Flood-Net dataset, containing UAV images captured after Hurricane Harvey, and benchmark their execution on special classes such as flooded buildings vs. non-flooded buildings or flooded roads vs. non-flooded roads. In this project, we developed a real-time UNet based model and deployed that network on Jetson AGX Xavier module.
翻訳日:2022-12-29 14:53:29 公開日:2022-12-28
# クラス不均衡データの効率的な一般化のためのサドルポイントの抽出

Escaping Saddle Points for Effective Generalization on Class-Imbalanced Data ( http://arxiv.org/abs/2212.13827v1 )

ライセンス: Link先を確認
Harsh Rangwani, Sumukh K Aithal, Mayank Mishra, R. Venkatesh Babu(参考訳) 現実世界のデータセットは、さまざまなタイプの不均衡を示す。 再重み付けと損失のマージン調整に基づくいくつかの手法は、ニューラルネットワーク、特にマイノリティクラスの性能を高めるためにしばしば用いられる。 本研究では,再重み付けとマージンベース手法を用いて学習したニューラルネットワークの損失状況を調べることにより,クラス不均衡な学習問題を解析する。 具体的には、ネットワーク重みがマイノリティクラスにおける損失ランドスケープのサドル点に収束することを観察する、クラスワイド損失のヘッセンのスペクトル密度について検討する。 この観察の結果,サドル点から逃れるための最適化手法が,マイノリティクラスにおける一般化に有効であることがわかった。 さらに,平らなミニマへの収束を促す最近の手法であるSharpness-Aware Minimization (SAM) が,少数クラスのサドルポイントを効果的に回避できることを示す。 SAMを使用することで、最先端のベクタースケーリング損失よりもマイノリティークラスでは6.2\%の精度が向上し、不均衡なデータセット全体の平均4\%が向上する。 コードは、https://github.com/val-iisc/Saddle-LongTail.comで入手できる。

Real-world datasets exhibit imbalances of varying types and degrees. Several techniques based on re-weighting and margin adjustment of loss are often used to enhance the performance of neural networks, particularly on minority classes. In this work, we analyze the class-imbalanced learning problem by examining the loss landscape of neural networks trained with re-weighting and margin-based techniques. Specifically, we examine the spectral density of Hessian of class-wise loss, through which we observe that the network weights converge to a saddle point in the loss landscapes of minority classes. Following this observation, we also find that optimization methods designed to escape from saddle points can be effectively used to improve generalization on minority classes. We further theoretically and empirically demonstrate that Sharpness-Aware Minimization (SAM), a recent technique that encourages convergence to a flat minima, can be effectively used to escape saddle points for minority classes. Using SAM results in a 6.2\% increase in accuracy on the minority classes over the state-of-the-art Vector Scaling Loss, leading to an overall average increase of 4\% across imbalanced datasets. The code is available at: https://github.com/val-iisc/Saddle-LongTail.
翻訳日:2022-12-29 14:53:11 公開日:2022-12-28
# 連続時間列圧縮のための潜時離散化

Latent Discretization for Continuous-time Sequence Compression ( http://arxiv.org/abs/2212.13659v1 )

ライセンス: Link先を確認
Ricky T. Q. Chen, Matthew Le, Matthew Muckley, Maximilian Nickel, Karen Ullrich(参考訳) ニューラル圧縮は、ディープジェネレーティブモデルを介してロスレスまたはロスレス圧縮のためのコーデックを作成するドメインに依存しないアプローチを提供する。 しかし、シーケンス圧縮では、ほとんどのディープシーケンスモデルには、シーケンスの複雑さよりもシーケンス長でスケールするコストがある。 本研究では,基礎となる連続時間プロセスからの観測としてデータ列を扱い,全シーケンスに関する情報を保持しながら効率的に離散化する方法を学習する。 逐次情報を時間的離散化から分離することで,圧縮速度が向上し,計算複雑性が小さくなる。 さらに、連続時間アプローチは自然に異なる時間間隔でデコードすることができます。 我々は,映像とモーションキャプチャの圧縮を含む複数の領域における提案手法を実証的に検証し,離散化法を学習することで,ビットレートの削減を自動的に実現できることを示す。

Neural compression offers a domain-agnostic approach to creating codecs for lossy or lossless compression via deep generative models. For sequence compression, however, most deep sequence models have costs that scale with the sequence length rather than the sequence complexity. In this work, we instead treat data sequences as observations from an underlying continuous-time process and learn how to efficiently discretize while retaining information about the full sequence. As a consequence of decoupling sequential information from its temporal discretization, our approach allows for greater compression rates and smaller computational complexity. Moreover, the continuous-time approach naturally allows us to decode at different time intervals. We empirically verify our approach on multiple domains involving compression of video and motion capture sequences, showing that our approaches can automatically achieve reductions in bit rates by learning how to discretize.
翻訳日:2022-12-29 14:43:06 公開日:2022-12-28
# GD-trained Shallow Overparameterized ReLU Neural Networksによるリプシッツ関数の学習

Learning Lipschitz Functions by GD-trained Shallow Overparameterized ReLU Neural Networks ( http://arxiv.org/abs/2212.13848v1 )

ライセンス: Link先を確認
Ilja Kuzborskij, Csaba Szepesv\'ari(参考訳) グラディエント・Descent (GD) による学習において, 過パラメータ化された浅部ReLUニューラルネットワークによる非微分可能境界関数リプシッツの学習能力について検討した。 ノイズの存在下では、このクラスではトレーニングエラーのほとんどゼロにトレーニングされたニューラルネットワークが不整合であることを回避するために、一貫性と最適なレートを示すことができる早期停止型GDに焦点を当てる。 特に,gd訓練された有限幅ニューラルネットワークの神経接核近似(neural tangent kernel:ntk)の観点からこの問題を考察する。 ReLUアクティベーション関数によって誘導されるカーネルのヒルベルト空間上で、何らかの早期停止規則が最適速度(過剰リスク)を与えることが保証された場合、ニューラルネットワークにより検討されたリプシッツ関数のクラスで学習するために、同じ規則を極小最大速度を達成することができる。 本稿では,データフリーかつデータ依存的な停止規則について検討する。

We explore the ability of overparameterized shallow ReLU neural networks to learn Lipschitz, non-differentiable, bounded functions with additive noise when trained by Gradient Descent (GD). To avoid the problem that in the presence of noise, neural networks trained to nearly zero training error are inconsistent in this class, we focus on the early-stopped GD which allows us to show consistency and optimal rates. In particular, we explore this problem from the viewpoint of the Neural Tangent Kernel (NTK) approximation of a GD-trained finite-width neural network. We show that whenever some early stopping rule is guaranteed to give an optimal rate (of excess risk) on the Hilbert space of the kernel induced by the ReLU activation function, the same rule can be used to achieve minimax optimal rate for learning on the class of considered Lipschitz functions by neural networks. We discuss several data-free and data-dependent practically appealing stopping rules that yield optimal rates.
翻訳日:2022-12-29 14:42:52 公開日:2022-12-28
# TiG-BEV:ターゲット内形状学習による多視点BEV3D物体検出

TiG-BEV: Multi-view BEV 3D Object Detection via Target Inner-Geometry Learning ( http://arxiv.org/abs/2212.13979v1 )

ライセンス: Link先を確認
Peixiang Huang, Li Liu, Renrui Zhang, Song Zhang, Xinli Xu, Baichao Wang, Guoyi Liu(参考訳) 高精度で低コストな3Dオブジェクト検出を実現するため,既存手法ではLiDARモダリティによる空間的手がかりを持つカメラベースの多視点検出器(例えば,深度監視と鳥眼視(BEV)特徴蒸留など)が提案されている。 しかし、彼らは直接LiDARからカメラへのポイント・ツー・ポイントの模倣を行い、2D-3D特徴間のモーダルギャップに悩まされる前景の形状を無視する。 本稿では,LiDARモダリティからTiG-BEVと呼ばれる高密度深度・BEV特性のカメラベースBEV検出器へのターゲット内形状の学習手法を提案する。 まず,異なる前景画素間の低レベル相対深度関係を学習するための奥行き監視モジュールを提案する。 これにより、カメラベースの検出器は、オブジェクトの空間構造をよりよく理解することができる。 第2に,前景目標の異なるキーポイントの高レベルセマンティクスを模倣する内部機能bev蒸留モジュールを設計した。 2つのモード間のBEV特徴ギャップを緩和するため、我々はチャンネル間蒸留とキーポイント間蒸留の両方を特徴類似性モデリングに適用した。 ターゲットとした内部幾何蒸留により、TiG-BEVはBEVDepthを+2.3% NDS、+2.4% mAP、BEVDetを+9.1% NDS、+10.3% mAPで効果的に増強することができる。 コードはhttps://github.com/ADLab3Ds/TiG-BEVで入手できる。

To achieve accurate and low-cost 3D object detection, existing methods propose to benefit camera-based multi-view detectors with spatial cues provided by the LiDAR modality, e.g., dense depth supervision and bird-eye-view (BEV) feature distillation. However, they directly conduct point-to-point mimicking from LiDAR to camera, which neglects the inner-geometry of foreground targets and suffers from the modal gap between 2D-3D features. In this paper, we propose the learning scheme of Target Inner-Geometry from the LiDAR modality into camera-based BEV detectors for both dense depth and BEV features, termed as TiG-BEV. First, we introduce an inner-depth supervision module to learn the low-level relative depth relations between different foreground pixels. This enables the camera-based detector to better understand the object-wise spatial structures. Second, we design an inner-feature BEV distillation module to imitate the high-level semantics of different keypoints within foreground targets. To further alleviate the BEV feature gap between two modalities, we adopt both inter-channel and inter-keypoint distillation for feature-similarity modeling. With our target inner-geometry distillation, TiG-BEV can effectively boost BEVDepth by +2.3% NDS and +2.4% mAP, along with BEVDet by +9.1% NDS and +10.3% mAP on nuScenes val set. Code will be available at https://github.com/ADLab3Ds/TiG-BEV.
翻訳日:2022-12-29 14:35:44 公開日:2022-12-28
# Deepfakesはどのように動くのか? 深発震源検出のための運動拡大

How Do Deepfakes Move? Motion Magnification for Deepfake Source Detection ( http://arxiv.org/abs/2212.14033v1 )

ライセンス: Link先を確認
Umur Aybars Ciftci, Ilke Demir(参考訳) 深層生成モデルの普及に伴い、ディープフェイクは毎日品質と量を改善している。 しかし、プリスタンビデオには微妙な認証信号があり、SOTA GANでは複製されない。 我々は,一般的なディープフェイク源検出器の構築に向けて,モーション拡大によるディープフェイクと本物のビデオの動きを対比する。 顔の筋肉下運動は、その生成残基に反映される異なる生成モデルごとに異なる解釈を持つ。 提案手法は,映像が偽物であるかどうかを検知するために,深部と従来の動きの倍率を組み合わせ,実動作と増幅されたGAN指紋の差を利用する。 2つのマルチソースデータセットに対するアプローチを評価し、ビデオソース検出の97.17%と94.03%を得る。 従来のdeepfakeソース検出器や他の複雑なアーキテクチャと比較する。 また,拡大量,位相抽出ウィンドウ,バックボーンネットワークアーキテクチャ,サンプル数,サンプル長の重要性についても検討した。 最後に, バイアスを評価するため, 皮膚音の異なる結果について報告する。

With the proliferation of deep generative models, deepfakes are improving in quality and quantity everyday. However, there are subtle authenticity signals in pristine videos, not replicated by SOTA GANs. We contrast the movement in deepfakes and authentic videos by motion magnification towards building a generalized deepfake source detector. The sub-muscular motion in faces has different interpretations per different generative models which is reflected in their generative residue. Our approach exploits the difference between real motion and the amplified GAN fingerprints, by combining deep and traditional motion magnification, to detect whether a video is fake and its source generator if so. Evaluating our approach on two multi-source datasets, we obtain 97.17% and 94.03% for video source detection. We compare against the prior deepfake source detector and other complex architectures. We also analyze the importance of magnification amount, phase extraction window, backbone network architecture, sample counts, and sample lengths. Finally, we report our results for different skin tones to assess the bias.
翻訳日:2022-12-29 14:35:13 公開日:2022-12-28
# FIDは大丈夫ですか? 唇同期作業におけるGANモデルにおける結果品質と測定値

All's well that FID's well? Result quality and metric scores in GAN models for lip-sychronization tasks ( http://arxiv.org/abs/2212.13810v1 )

ライセンス: Link先を確認
Carina Geldhauser, Johan Liljegren, Pontus Nordqvist(参考訳) リップ同期のためのGANモデルの性能を検証した。 このために、PytorchでLipGANを再実装し、データセットGRIDでトレーニングし、LipGANアーキテクチャに適応し、GRIDでトレーニングしたL1WGAN-GPと比較する。

We test the performance of GAN models for lip-synchronization. For this, we reimplement LipGAN in Pytorch, train it on the dataset GRID and compare it to our own variation, L1WGAN-GP, adapted to the LipGAN architecture and also trained on GRID.
翻訳日:2022-12-29 14:34:58 公開日:2022-12-28
# 再帰的に特徴を学習するニューラルネットワークとカーネルマシンの機能学習

Feature learning in neural networks and kernel machines that recursively learn features ( http://arxiv.org/abs/2212.13881v1 )

ライセンス: Link先を確認
Adityanarayanan Radhakrishnan, Daniel Beaglehole, Parthe Pandit, Mikhail Belkin(参考訳) ニューラルネットワークは多くの技術的および科学的タスクで印象的な成果を上げている。 しかし、彼らの経験的成功は、その構造と機能に対する根本的な理解を大きく上回っている。 ニューラルネットワークの成功を駆動するメカニズムを識別することで、ニューラルネットワークのパフォーマンスを改善するための原則的なアプローチを提供し、シンプルで効果的な代替手段を開発することができる。 本研究では,ニューラルネットワークにおける特徴学習と平均勾配外積を接続することにより,特徴学習の鍵となるメカニズムを分離する。 次に、このメカニズムを利用して特徴を学習するカーネルマシンである \textit{Recursive Feature Machines} (RFMs) を設計する。 本研究では,1) 深い完全連結ニューラルネットワークによって学習された特徴を正確に把握し,(2) カーネルマシンと完全連結ネットワークのギャップを埋め,(3) グラフデータ上のニューラルネットワークを含む広い範囲のモデルを超えることを示す。 さらに,rfmsが最近観測されたグルーキング,抽選券,単純さバイアス,スプリアス機能などの深層学習現象に光を当てていることを示す。 私たちはpythonの実装を提供して、メソッドを広くアクセスできるようにしています [\href{https://github.com/aradha/recursive_feature_machines}{github}]。

Neural networks have achieved impressive results on many technological and scientific tasks. Yet, their empirical successes have outpaced our fundamental understanding of their structure and function. By identifying mechanisms driving the successes of neural networks, we can provide principled approaches for improving neural network performance and develop simple and effective alternatives. In this work, we isolate the key mechanism driving feature learning in fully connected neural networks by connecting neural feature learning to the average gradient outer product. We subsequently leverage this mechanism to design \textit{Recursive Feature Machines} (RFMs), which are kernel machines that learn features. We show that RFMs (1) accurately capture features learned by deep fully connected neural networks, (2) close the gap between kernel machines and fully connected networks, and (3) surpass a broad spectrum of models including neural networks on tabular data. Furthermore, we demonstrate that RFMs shed light on recently observed deep learning phenomena such as grokking, lottery tickets, simplicity biases, and spurious features. We provide a Python implementation to make our method broadly accessible [\href{https://github.com/aradha/recursive_feature_machines}{GitHub}].
翻訳日:2022-12-29 14:33:37 公開日:2022-12-28
# 強化学習による抽象学習に向けて

Towards Learning Abstractions via Reinforcement Learning ( http://arxiv.org/abs/2212.13980v1 )

ライセンス: Link先を確認
Erik Jerg\'eus, Leo Karlsson Oinonen, Emil Carlsson, Moa Johansson(参考訳) 本稿では,強化学習を通じて学習したマルチエージェントシステムにおいて,効率的な通信方式を合成するための新しいアプローチについて検討する。 我々は,ニューロシンボリックシステム(Neuro-symbolic system)と呼ばれる,シンボリック手法と機械学習を組み合わせる。 強化学習は、現在の言語を新しい高レベルな概念で拡張するためのステップでインターリーブされ、より短いメッセージによる一般化とより情報的なコミュニケーションを可能にする。 このアプローチにより、エージェントがより迅速に小さな協調的な建設作業に収束できることを実証する。

In this paper we take the first steps in studying a new approach to synthesis of efficient communication schemes in multi-agent systems, trained via reinforcement learning. We combine symbolic methods with machine learning, in what is referred to as a neuro-symbolic system. The agents are not restricted to only use initial primitives: reinforcement learning is interleaved with steps to extend the current language with novel higher-level concepts, allowing generalisation and more informative communication via shorter messages. We demonstrate that this approach allow agents to converge more quickly on a small collaborative construction task.
翻訳日:2022-12-29 14:32:47 公開日:2022-12-28
# TempCLR: コントラスト学習による時間的アライメント表現

TempCLR: Temporal Alignment Representation with Contrastive Learning ( http://arxiv.org/abs/2212.13738v1 )

ライセンス: Link先を確認
Yuncong Yang, Jiawei Ma, Shiyuan Huang, Long Chen, Xudong Lin, Guangxing Han, Shih-Fu Chang(参考訳) ビデオ表現学習はゼロショット転送のためのビデオテキスト事前学習に成功しており、各文は共通の特徴空間でペアビデオクリップに近いように訓練されている。 長いビデオでは、文章がビデオの異なるセグメントを記述した段落が与えられ、全ての文とクリップのペアをマッチングすることで、段落と全動画が暗黙的に並べられる。 しかし、このような単位レベルの類似度尺度は、大域的時間的文脈を長い時間にわたって無視する可能性がある。 本稿では,ビデオの全文と段落を明示的に比較するコントラスト学習フレームワークであるTempCLRを提案する。 ビデオ/パラグラフはクリップ/文のシーケンスとして定式化され、時間的順序の制約の下で、動的時間ワープを用いて、文-クリップペアの最小累積コストをシーケンスレベル距離として計算する。 時間的ダイナミクスを探索するために、時間的粒度に応じてビデオクリップや文をシャッフルすることで、時間的秩序の一貫性を破る。 このようにして、時間的情報を知覚し、シーケンスアライメントを容易にするクリップ/文の表現を得る。 ビデオとパラグラフの事前トレーニングに加えて、異なるビデオインスタンス間のマッチングを一般化することも可能です。 我々は,ビデオ検索,アクションステップのローカライゼーション,数発のアクション認識に対するアプローチを評価し,3つのタスクすべてに対して一貫したパフォーマンス向上を実現する。 アプローチ設計を正当化するための詳細なアブレーション研究が提供されている。

Video representation learning has been successful in video-text pre-training for zero-shot transfer, where each sentence is trained to be close to the paired video clips in a common feature space. For long videos, given a paragraph of description where the sentences describe different segments of the video, by matching all sentence-clip pairs, the paragraph and the full video are aligned implicitly. However, such unit-level similarity measure may ignore the global temporal context over a long time span, which inevitably limits the generalization ability. In this paper, we propose a contrastive learning framework TempCLR to compare the full video and the paragraph explicitly. As the video/paragraph is formulated as a sequence of clips/sentences, under the constraint of their temporal order, we use dynamic time warping to compute the minimum cumulative cost over sentence-clip pairs as the sequence-level distance. To explore the temporal dynamics, we break the consistency of temporal order by shuffling the video clips or sentences according to the temporal granularity. In this way, we obtain the representations for clips/sentences, which perceive the temporal information and thus facilitate the sequence alignment. In addition to pre-training on the video and paragraph, our approach can also generalize on the matching between different video instances. We evaluate our approach on video retrieval, action step localization, and few-shot action recognition, and achieve consistent performance gain over all three tasks. Detailed ablation studies are provided to justify the approach design.
翻訳日:2022-12-29 14:27:00 公開日:2022-12-28
# Cramming: 1日で1つのGPUで言語モデルをトレーニングする

Cramming: Training a Language Model on a Single GPU in One Day ( http://arxiv.org/abs/2212.14034v1 )

ライセンス: Link先を確認
Jonas Geiping, Tom Goldstein(参考訳) 言語モデリングの最近のトレンドは、スケーリングによるパフォーマンス向上に焦点が当てられ、ほとんどの研究者や実践者にとって、トレーニング言語モデルが手の届かない環境となった。 コミュニティのほとんどが、エクストリーム計算の限界を押し上げる方法を尋ねていますが、私たちは逆の質問をしています。 我々は,1つのコンシューマGPU上で1日間,マスク付き言語モデルを用いてゼロから完全に訓練されたトランスフォーマーベース言語モデルで達成可能なダウンストリーム性能について検討した。 このシナリオで事前学習パイプラインのほとんどすべてのコンポーネントを再分析し、BERTに近いパフォーマンスで修正パイプラインを提供するのとは別に、スケールダウンが難しい理由と、このシナリオでどの変更が実際にパフォーマンスを改善するのかを調査する。 この制約された設定であっても、大規模設定で観測されるスケーリングの法則に密接に従う性能を示す。 スケーリング法則のレンズを通して、最近のトレーニングとアーキテクチャの改善を分類し、限られた計算環境に対するそれらのメリットと実用的適用性(またはその欠如)について論じる。

Recent trends in language modeling have focused on increasing performance through scaling, and have resulted in an environment where training language models is out of reach for most researchers and practitioners. While most in the community are asking how to push the limits of extreme computation, we ask the opposite question: How far can we get with a single GPU in just one day? We investigate the downstream performance achievable with a transformer-based language model trained completely from scratch with masked language modeling for a single day on a single consumer GPU. Aside from re-analyzing nearly all components of the pretraining pipeline for this scenario and providing a modified pipeline with performance close to BERT, we investigate why scaling down is hard, and which modifications actually improve performance in this scenario. We provide evidence that even in this constrained setting, performance closely follows scaling laws observed in large-compute settings. Through the lens of scaling laws, we categorize a range of recent improvements to training and architecture and discuss their merit and practical applicability (or lack thereof) for the limited compute setting.
翻訳日:2022-12-29 14:26:32 公開日:2022-12-28
# 視覚変換器を用いたセマンティックセグメンテーションのための表現分離

Representation Separation for Semantic Segmentation with Vision Transformers ( http://arxiv.org/abs/2212.13764v1 )

ライセンス: Link先を確認
Yuanduo Hong, Huihui Pan, Weichao Sun, Xinghu Yu, and Huijun Gao(参考訳) イメージを一連のパッチとして符号化するヴィジュアルトランスフォーマタ(vits)は,意味セグメンテーションの新しいパラダイムをもたらす。我々は,vitを用いた意味セグメンテーションのための局所的パッチレベルとグローバル領域レベルの表現分離の効率的な枠組みを提案する。 意味的セグメンテーションにおけるViTの特異な過度な過度さを目標としており、現代のコンテキストモデリングの一般的なパラダイムや、注意力の優位性を強化する既存の関連手法とは異なる。 まず, トランスのグローバルな表現に相補的な局所パッチ差分を拡大し, 通過する2経路ネットワークを分離した。 次に,より分離された深層表現を得る空間適応分離モジュールと,新たな補助監督によってより識別的な領域表現をもたらす判別的クロスアテンションを提案する。 提案手法はいくつかの印象的な結果を得る。 1) 大規模平易なViTを組み込んだ手法により, 広く使用されている5つのベンチマークにおいて, 新たな最先端性能を実現する。 2) マスク付き事前訓練された平地 ViT を用いて,パスカルコンテクスト上で68.9% mIoU を達成し,新記録を樹立する。 3) ピラミッド型VTは、分離された2経路ネットワークに統合され、都市景観のよく設計された高解像度VTを超えます。 4) この枠組みによる表現の改善は, 自然破壊のある画像において良好な転送性を有する。 コードは公開される予定だ。

Vision transformers (ViTs) encoding an image as a sequence of patches bring new paradigms for semantic segmentation.We present an efficient framework of representation separation in local-patch level and global-region level for semantic segmentation with ViTs. It is targeted for the peculiar over-smoothness of ViTs in semantic segmentation, and therefore differs from current popular paradigms of context modeling and most existing related methods reinforcing the advantage of attention. We first deliver the decoupled two-pathway network in which another pathway enhances and passes down local-patch discrepancy complementary to global representations of transformers. We then propose the spatially adaptive separation module to obtain more separate deep representations and the discriminative cross-attention which yields more discriminative region representations through novel auxiliary supervisions. The proposed methods achieve some impressive results: 1) incorporated with large-scale plain ViTs, our methods achieve new state-of-the-art performances on five widely used benchmarks; 2) using masked pre-trained plain ViTs, we achieve 68.9% mIoU on Pascal Context, setting a new record; 3) pyramid ViTs integrated with the decoupled two-pathway network even surpass the well-designed high-resolution ViTs on Cityscapes; 4) the improved representations by our framework have favorable transferability in images with natural corruptions. The codes will be released publicly.
翻訳日:2022-12-29 14:24:46 公開日:2022-12-28
# Swin MAE: 小さなデータセットのためのマスク付きオートエンコーダ

Swin MAE: Masked Autoencoders for Small Datasets ( http://arxiv.org/abs/2212.13805v1 )

ライセンス: Link先を確認
Zi'an Xu, Yin Dai, Fayu Liu, Weibing Chen, Yue Liu, Lifu Shi, Sheng Liu, Yuhang Zhou(参考訳) 医用画像解析における深層学習モデルの開発は、大規模かつ注釈付きデータセットの欠如によって大きく制限されている。 教師なし学習はラベルを必要とせず、医療画像解析の問題を解決するのに適している。 しかし、現在の教師なし学習手法のほとんどは、大規模なデータセットに適用する必要がある。 教師なし学習を小さなデータセットに適用するために,Swin Transformerをバックボーンとしたマスク付きオートエンコーダSwin MAEを提案する。 何千もの医療画像のデータセット上でも、事前訓練されたモデルを使用しなくても、Swin MAEは画像から有用なセマンティック機能を学ぶことができる。 これは、下流タスクの転送学習結果の観点から、ImageNetでトレーニングされたSwin Transformerによって得られた教師付きモデルに等しく、あるいはわずかに優れる。 コードは近々公開される予定だ。

The development of deep learning models in medical image analysis is majorly limited by the lack of large-sized and well-annotated datasets. Unsupervised learning does not require labels and is more suitable for solving medical image analysis problems. However, most of the current unsupervised learning methods need to be applied to large datasets. To make unsupervised learning applicable to small datasets, we proposed Swin MAE, which is a masked autoencoder with Swin Transformer as its backbone. Even on a dataset of only a few thousand medical images and without using any pre-trained models, Swin MAE is still able to learn useful semantic features purely from images. It can equal or even slightly outperform the supervised model obtained by Swin Transformer trained on ImageNet in terms of the transfer learning results of downstream tasks. The code will be publicly available soon.
翻訳日:2022-12-29 14:24:21 公開日:2022-12-28
# 機械学習手法を用いない蛍光画像のセグメンテーション法

A Segmentation Method for fluorescence images without a machine learning approach ( http://arxiv.org/abs/2212.13945v1 )

ライセンス: Link先を確認
Giuseppe Giacopelli and Michele Migliore and Domenico Tegolo(参考訳) 背景: デジタル病理学における画像解析の応用には、関心領域を分割する様々な方法が含まれる。 彼らの識別は最も複雑なステップの1つであり、必ずしも機械学習(ML)アプローチに依存しないロバストな手法の研究に大きな関心を持っている。 方法: 異なるデータセットに対する完全自動かつ最適化されたセグメンテーションプロセスは、間接免疫蛍光(IIF)原データの分類と診断の前提条件である。 本研究では,細胞と核を同定するための決定論的計算神経科学アプローチについて述べる。 従来のニューラルネットワークのアプローチとは程遠いが、その量的および質的なパフォーマンスと同等であり、逆のノイズにも強い。 この方法は、正式に正しい関数に基づいて堅牢であり、特定のデータセットのチューニングに支障を来さない。 結果:本研究は,画像サイズ,モード,信号対雑音比などのパラメータの変動に対する手法の堅牢性を示す。 独立診療医が注記した画像を用いて,Neuroblastoma と NucleusSegData の2つのデータセットで評価を行った。 結論: 機能的から構造的視点まで、決定論的および正式に正しいメソッドの定義は、最適化された、機能的に正しい結果の達成を保証する。 蛍光画像からのセグメント細胞と核に対する決定論的手法(NeuronalAlg)の優れた性能を定量的指標を用いて測定し、3つのMLアプローチによる評価と比較した。

Background: Image analysis applications in digital pathology include various methods for segmenting regions of interest. Their identification is one of the most complex steps, and therefore of great interest for the study of robust methods that do not necessarily rely on a machine learning (ML) approach. Method: A fully automatic and optimized segmentation process for different datasets is a prerequisite for classifying and diagnosing Indirect ImmunoFluorescence (IIF) raw data. This study describes a deterministic computational neuroscience approach for identifying cells and nuclei. It is far from the conventional neural network approach, but it is equivalent to their quantitative and qualitative performance, and it is also solid to adversative noise. The method is robust, based on formally correct functions, and does not suffer from tuning on specific data sets. Results: This work demonstrates the robustness of the method against the variability of parameters, such as image size, mode, and signal-to-noise ratio. We validated the method on two datasets (Neuroblastoma and NucleusSegData) using images annotated by independent medical doctors. Conclusions: The definition of deterministic and formally correct methods, from a functional to a structural point of view, guarantees the achievement of optimized and functionally correct results. The excellent performance of our deterministic method (NeuronalAlg) to segment cells and nuclei from fluorescence images was measured with quantitative indicators and compared with those achieved by three published ML approaches.
翻訳日:2022-12-29 14:24:09 公開日:2022-12-28
# トランスフォーマーを用いたデータ拡張とアラビア文字分類改善のための類似度対策

Data Augmentation using Transformers and Similarity Measures for Improving Arabic Text Classification ( http://arxiv.org/abs/2212.13939v1 )

ライセンス: Link先を確認
Dania Refai, Saleh Abo-Soud, Mohammad Abdel-Rahman(参考訳) 学習モデルは、効果的に働くためにデータに大きく依存しており、大きなデータセットのトレーニングでパフォーマンスが向上する。 データセットの妥当性の問題に対処する大規模な研究が文献に存在している。 データセットの妥当性問題を解決するための有望なアプローチは、データ拡張(DA)アプローチである。 daでは、利用可能なデータインスタンスで異なる変換を行い、新しい正しいデータインスタンスおよび代表データインスタンスを生成することで、トレーニングデータインスタンスの量を増やす。 DAはデータセットのサイズと変動性を高め、モデルの性能と予測精度を高める。 daは分類学習手法におけるクラス不均衡問題も解決する。 近年、アラビア語でDAとみなす研究はほとんどない。 これらの研究は、規則やノミジングに基づく手法によるパラフレージングのような伝統的な拡張アプローチに依存している。 本稿では,AraGPT-2と呼ばれる最近の強力なモデリング手法を応用したアラビアDA法を提案する。 生成された文は、ユークリッド、コサイン、ジャカード、BLEU距離を用いて、文脈、意味、多様性、新規性の観点から評価される。 最後に、アラビアデータセットの分類性能を評価するために、感情分類タスクにAraBERT変換器を用いる。 実験は、AraSarcasm、ASTD、ATT、MOVIEの4つの感情アラビアデータセットを用いて行われた。 選択されたデータセットはサイズ、ラベル番号、不均衡クラスによって異なる。 提案手法により,全データセットのアラビア語感情テキスト分類が向上し,アラサルカズムではf1得点が4%,astdでは6%,attでは9%,映画では13%増加した。

Learning models are highly dependent on data to work effectively, and they give a better performance upon training on big datasets. Massive research exists in the literature to address the dataset adequacy issue. One promising approach for solving dataset adequacy issues is the data augmentation (DA) approach. In DA, the amount of training data instances is increased by making different transformations on the available data instances to generate new correct and representative data instances. DA increases the dataset size and its variability, which enhances the model performance and its prediction accuracy. DA also solves the class imbalance problem in the classification learning techniques. Few studies have recently considered DA in the Arabic language. These studies rely on traditional augmentation approaches, such as paraphrasing by using rules or noising-based techniques. In this paper, we propose a new Arabic DA method that employs the recent powerful modeling technique, namely the AraGPT-2, for the augmentation process. The generated sentences are evaluated in terms of context, semantics, diversity, and novelty using the Euclidean, cosine, Jaccard, and BLEU distances. Finally, the AraBERT transformer is used on sentiment classification tasks to evaluate the classification performance of the augmented Arabic dataset. The experiments were conducted on four sentiment Arabic datasets, namely AraSarcasm, ASTD, ATT, and MOVIE. The selected datasets vary in size, label number, and unbalanced classes. The results show that the proposed methodology enhanced the Arabic sentiment text classification on all datasets with an increase in F1 score by 4% in AraSarcasm, 6% in ASTD, 9% in ATT, and 13% in MOVIE.
翻訳日:2022-12-29 14:16:30 公開日:2022-12-28
# 専門家によるKL正規化強化学習における病理

On Pathologies in KL-Regularized Reinforcement Learning from Expert Demonstrations ( http://arxiv.org/abs/2212.13936v1 )

ライセンス: Link先を確認
Tim G. J. Rudner and Cong Lu and Michael A. Osborne and Yarin Gal and Yee Whye Teh(参考訳) kl-regularized reinforcement learning from expert demonstrationsは、深層強化学習アルゴリズムのサンプル効率を向上させることに成功した。 しかし,kl-regularized reinforcement learning with behavior reference policys from expert demonstrationsでは,遅滞,不安定,準最適オンライン学習につながる病的訓練ダイナミクスに苦しむ可能性がある。 病理学は一般に選択された行動政策クラスで発生し,その効果がサンプル効率やオンライン政策性能に与える影響を実証する。 最後に,非パラメトリック行動規範ポリシーによって病理を修復し,kl-regularized reinforcement learningにより,様々な課題のあるロコモーションやデクスタースハンド操作タスクにおいて,最先端のアプローチを著しく上回ることができることを示した。

KL-regularized reinforcement learning from expert demonstrations has proved successful in improving the sample efficiency of deep reinforcement learning algorithms, allowing them to be applied to challenging physical real-world tasks. However, we show that KL-regularized reinforcement learning with behavioral reference policies derived from expert demonstrations can suffer from pathological training dynamics that can lead to slow, unstable, and suboptimal online learning. We show empirically that the pathology occurs for commonly chosen behavioral policy classes and demonstrate its impact on sample efficiency and online policy performance. Finally, we show that the pathology can be remedied by non-parametric behavioral reference policies and that this allows KL-regularized reinforcement learning to significantly outperform state-of-the-art approaches on a variety of challenging locomotion and dexterous hand manipulation tasks.
翻訳日:2022-12-29 14:16:01 公開日:2022-12-28
# styleid: 顔の匿名化のためのアイデンティティ乱れ

StyleID: Identity Disentanglement for Anonymizing Faces ( http://arxiv.org/abs/2212.13791v1 )

ライセンス: Link先を確認
Minh-Ha Le and Niklas Carlsson(参考訳) 機械学習モデルのプライバシは、AI(Artificial Intelligent)の普及を妨げている残りの課題の1つだ。 本稿では,顔を含む画像データセットの文脈でこの問題を考察する。 このようなデータセットの匿名化は、例えば自動運転車のトレーニングにおける中心的な役割と、監視システムによって生成される膨大なデータによって、ますます重要になっている。 たいていの先行研究では、ピクセル空間のアイデンティティ特徴を変更して顔画像の識別を解除するが、その代わりに、画像が生成的敵ネットワーク(gan)モデルの潜在空間に投影され、最大のアイデンティティの不一致をもたらす特徴を見つけ、潜在空間、ピクセル空間、またはその両方でこれらの特徴を操作する。 論文の主な貢献は、画像データセットの元の顔の特徴を可能な限り保持しながら、個人のアイデンティティを保護する機能保存型匿名化フレームワークstyleidの設計である。 この貢献の一環として,新たな異方性指標,3つの相補的異方性手法,および同一性異方性に対する新たな洞察を提案する。 StyleIDはチューナブルなプライバシを提供し、計算の複雑さが低く、現在の最先端ソリューションを上回っている。

Privacy of machine learning models is one of the remaining challenges that hinder the broad adoption of Artificial Intelligent (AI). This paper considers this problem in the context of image datasets containing faces. Anonymization of such datasets is becoming increasingly important due to their central role in the training of autonomous cars, for example, and the vast amount of data generated by surveillance systems. While most prior work de-identifies facial images by modifying identity features in pixel space, we instead project the image onto the latent space of a Generative Adversarial Network (GAN) model, find the features that provide the biggest identity disentanglement, and then manipulate these features in latent space, pixel space, or both. The main contribution of the paper is the design of a feature-preserving anonymization framework, StyleID, which protects the individuals' identity, while preserving as many characteristics of the original faces in the image dataset as possible. As part of the contribution, we present a novel disentanglement metric, three complementing disentanglement methods, and new insights into identity disentanglement. StyleID provides tunable privacy, has low computational complexity, and is shown to outperform current state-of-the-art solutions.
翻訳日:2022-12-29 14:14:55 公開日:2022-12-28
# vc次元における最大二次サイズラベル付きサンプル圧縮スキーム

A Labelled Sample Compression Scheme of Size at Most Quadratic in the VC Dimension ( http://arxiv.org/abs/2212.12631v2 )

ライセンス: Link先を確認
Farnam Mansouri and Sandra Zilles(参考訳) 本稿では,任意の有限概念クラスに対して,サイズ$O(\VCD^2)$の固有かつ安定なラベル付きサンプル圧縮スキームを構築し,その場合,$\VCD$はVapnik-Chervonenkis次元を表す。 この構成は、再帰的教育次元(recursive teaching dimension)と呼ばれる有名な機械教育モデルに基づいている。 これにより、サンプル圧縮スキーム(moran と yehudayoff による)のサイズで現在知られている範囲を大幅に改善し、これは$\vcd$ で指数関数的である。 サンプル圧縮スキームの最小サイズが$o(\vcd)$であるかどうかという長年の疑問はまだ解決されていないが、機械教育の研究は、このオープン問題の研究にとって有望な道筋であることを示している。 機械教育とサンプル圧縮の強い結びつきの証拠として,Kirkpatrickらによって導入された非クラッチ学習のモデルは,安定なサンプル圧縮スキームのサイズに基づく非自明な下限を定義するために利用できることを示す。

This paper presents a construction of a proper and stable labelled sample compression scheme of size $O(\VCD^2)$ for any finite concept class, where $\VCD$ denotes the Vapnik-Chervonenkis Dimension. The construction is based on a well-known model of machine teaching, referred to as recursive teaching dimension. This substantially improves on the currently best known bound on the size of sample compression schemes (due to Moran and Yehudayoff), which is exponential in $\VCD$. The long-standing open question whether the smallest size of a sample compression scheme is in $O(\VCD)$ remains unresolved, but our results show that research on machine teaching is a promising avenue for the study of this open problem. As further evidence of the strong connections between machine teaching and sample compression, we prove that the model of no-clash teaching, introduced by Kirkpatrick et al., can be used to define a non-trivial lower bound on the size of stable sample compression schemes.
翻訳日:2022-12-29 12:05:06 公開日:2022-12-28