このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20220910となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# 量子ランダムアクセスストアドプログラムマシン Quantum Random Access Stored-Program Machines ( http://arxiv.org/abs/2003.03514v2 ) ライセンス: Link先を確認 | Qisheng Wang and Mingsheng Ying | (参考訳) ランダム・アクセス・マシン (RAM) とランダム・アクセス・ストアド・プログラム・マシン (RASP) は、チューリング・マシン (TM) よりも現実のコンピュータのアーキテクチャに近い計算モデルである。
アルゴリズムの複雑性分析にも便利である。
RAM、RASP、TMの関係はよく研究されている。
しかし、量子的な関係性はいまだに文献に残っていない。
量子ランダムアクセスマシン(QRAM)と量子ランダムアクセスストアプログラムマシン(QRASP)のモデルを定義し,QRAM,QRASP,量子チューリングマシン(QTM)の関係を明らかにすることで,このギャップを埋める。
特に、$\textbf{P} \subseteq \textbf{EQRAMP} \subseteq \textbf{EQP} \subseteq \textbf{BQP} = \textbf{BQRAMP}$, where $\textbf{EQRAMP}$ と $\textbf{BQRAMP}$ は多項式時間 QRAM と有界エラーでそれぞれ解ける問題の集合を表す。
我々の証明の核心は、独立した関心を持つ拡張停止スキームによるQTMの標準化である。 Random access machines (RAMs) and random access stored-program machines (RASPs) are models of computing that are closer to the architecture of real-world computers than Turing machines (TMs). They are also convenient in complexity analysis of algorithms. The relationships between RAMs, RASPs and TMs are well-studied. However, clear relationships between their quantum counterparts are still missing in the literature. We fill in this gap by formally defining the models of quantum random access machines (QRAMs) and quantum random access stored-program machines (QRASPs) and clarifying the relationships between QRAMs, QRASPs and quantum Turing machines (QTMs). In particular, we show that $\textbf{P} \subseteq \textbf{EQRAMP} \subseteq \textbf{EQP} \subseteq \textbf{BQP} = \textbf{BQRAMP}$, where $\textbf{EQRAMP}$ and $\textbf{BQRAMP}$ stand for the sets of problems that can be solved by polynomial-time QRAMs with certainty and bounded-error, respectively. At the heart of our proof, is a standardisation of QTM with an extended halting scheme, which is of independent interest. | 翻訳日:2023-05-30 06:59:22 公開日:2022-09-10 |
# 周期駆動量子系の動的対称性とその分光シグネチャ Dynamical symmetries of periodically-driven quantum systems and their spectroscopic signatures ( http://arxiv.org/abs/2011.06758v2 ) ライセンス: Link先を確認 | Georg Engelhardt and Jianshu Cao | (参考訳) 量子系の空間対称性は、選択規則や暗黒状態のような分光において重要な効果をもたらす。
最近の実験で達成された光-物質相互作用の強度の増大により、強い周期駆動を受ける量子系に対する動的一般化対称性のセットについて検討した。
フロケット応答理論に基づき, 対称性保護暗黒状態 (spDS) , フロケット帯選択規則 (FBSR) , 対称性誘導透過性 (siT) を含む, 回転, 粒子ホール, キラル, 時間反転対称性とその分光特性について検討した。
具体的には、力学回転対称性はダーク状態条件と非弾性光散乱過程の選択規則を確立する; 粒子-ホール対称性は、対称性に関連するフロッケ状態と準エネルギー交差での透明性効果のためにダーク状態を導入する; カイラル対称性と時間-反転対称性だけではダーク状態条件は含まないが、粒子-ホール対称性と組み合わせることができる。
量子系が強い光・物質結合状態に達すると、新しい物理現象が明らかになり、超伝導量子ビット、原子、分子が光学的またはプラズモニックな磁場のキャビティや光機械系において重要である。 Spatial symmetries of quantum systems leads to important effects in spectroscopy, such as selection rules and dark states. Motivated by the increasing strength of light-matter interaction achieved in recent experiments, we investigate a set of dynamically-generalized symmetries for quantum systems, which are subject to a strong periodic driving. Based on Floquet response theory, we study rotational, particle-hole, chiral and time-reversal symmetries and their signatures in spectroscopy, including symmetry-protected dark states (spDS), a Floquet band selection rule (FBSR), and symmetry-induced transparency (siT). Specifically, a dynamical rotational symmetry establishes dark state conditions, as well as selection rules for inelastic light scattering processes; a particle-hole symmetry introduces dark states for symmetry related Floquet states and also a transparency effect at quasienergy crossings; chiral symmetry and time-reversal symmetry alone do not imply dark state conditions, but can be combined to the particle-hole symmetry. Our predictions reveal new physical phenomena when a quantum system reaches the strong light-matter coupling regime, important for superconducting qubits, atoms and molecules in optical or plasmonic field cavities, and optomechanical systems. | 翻訳日:2023-04-24 05:35:12 公開日:2022-09-10 |
# 非線形空間モード検出器を用いた高次元情報の遠隔伝送 Stimulated teleportation of high-dimensional information with a nonlinear spatial mode detector ( http://arxiv.org/abs/2111.13624v3 ) ライセンス: Link先を確認 | Bereneice Sephton, Adam Vall\'es, Isaac Nape, Mitchell A. Cox, Fabian Steinlechner, Thomas Konrad, Juan P. Torres, Filippus S. Roux, and Andrew Forbes | (参考訳) テレポーテーションは、絡み合った光子と古典的な通信チャネルの共有によって促進される2つの遠隔者間の情報交換を可能にする。
次元が増大するにつれて、テレポーテーションは情報容量の向上とノイズに対するレジリエンスの向上を約束するが、アシラリー光子の数を次元に応じて増加させる線形光検出方式によって制限される。
本稿では,この制約を克服し,高次元空間情報の伝送を単一対と非線形空間モード検出器で実験的に実現した。
任意のフォトニック空間モードに対する15次元のテレポーテーションチャネルを示し、古典的限界を超え、キュービットテレポーテーションのための2つの空間モードの最先端を前進させ、経路の絡み合いを伴うクトリットテレポーテーションを行う。
我々の実証・実証実験は、軌道角運動量、エルミート・ガウスおよび任意の空間モード重ね合わせに符号化された情報を転送することで、送る状態の事前の知識なく、最初の空間基底および次元独立的なアプローチを提供する。
我々のテレポーテーションプロセスはコヒーレントソースで刺激されるが、将来的には、単一の絡み合ったペア構成を変更することなく、非線形光学の進歩によって単一の光子入力を行うことで、情報の高次元テレポーテーションのための最初の汎用的でスケーラブルなアプローチを提供することができる。 Teleportation allows information exchange between two distant parties, facilitated by the sharing of entangled photons and a classical communication channel. With increased dimensionality, teleportation offers the promise of higher information capacity and improved resilience to noise, but is limited by the commonly used linear optical detection schemes that require the number of ancillary photons to grow with dimension. Here, we overcome this restriction and experimentally realise the teleportation of high-dimensional spatial information with a single entangled pair and a nonlinear spatial mode detector. We demonstrate a 15 dimensional teleportation channel for arbitrary photonic spatial modes, exceeding the classical limit and advancing the state-of-the-art of two spatial modes for qubit teleportation, and qutrit teleportation with path entanglement. Our proof-of-principle experiment offers the first spatial basis and dimension independent approach, which we demonstrate by transferring information encoded into orbital angular momentum, Hermite-Gaussian and arbitrary spatial mode superpositions, all with high fidelity and similarity, and without prior knowledge of the state to be sent. While our teleportation process is stimulated with a coherent source, it could in future be performed with a single photon input by advances in nonlinear optics without changing its single entangled pair configuration, offering the first versatile and scalable approach for high-dimensional teleportation of information. | 翻訳日:2023-03-06 19:31:39 公開日:2022-09-10 |
# 倫理観 Prismal view of ethics ( http://arxiv.org/abs/2205.13370v2 ) ライセンス: Link先を確認 | Sarah Isufi, Kristijan Poje, Igor Vukobratovic and Mario Brcic | (参考訳) 我々は倫理を精査し、ツールになる可能性のある抽象的な性質の形で洞察を引き出そうとする。
倫理をゲームと結びつけ、倫理のパフォーマンスについて話し、競争とパフォーマンスのよい倫理の調整の相互作用に好奇心を持ち込み、増大する実体の集合を統一する可能性のある発展の視点を提供したいと考えています。
これらすべては、ゲームに対して非常に否定的な計算複雑性によって、長い影の下にあります。
この分析は、現代のAIシステムを人間社会に統合するためにAI倫理に使用されるかもしれないモデリングの側面を見つけるための第一歩である。 We shall have a hard look at ethics and try to extract insights in the form of abstract properties that might become tools. We want to connect ethics to games, talk about the performance of ethics, introduce curiosity into the interplay between competing and coordinating in well-performing ethics, and offer a view of possible developments that could unify increasing aggregates of entities. All this is under a long shadow cast by computational complexity that is quite negative about games. This analysis is the first step toward finding modeling aspects that might be used in AI ethics for integrating modern AI systems into human society. | 翻訳日:2023-02-19 17:15:19 公開日:2022-09-10 |
# 共変エンタングルメントウェッジ断面積、平衡部分エンタングルメントおよび重力異常 Covariant entanglement wedge cross-section, balanced partial entanglement and gravitational anomalies ( http://arxiv.org/abs/2205.10858v3 ) ライセンス: Link先を確認 | Qiang Wen and Haocheng Zhong | (参考訳) 平衡部分エンタングルメント (BPE) は反射エントロピーを与え、様々な理論における様々な混合状態に対するエンタングルメントウェッジ断面積 (EWCS) を観測した。
異なる精製法で計算でき、精製法から独立していると推測される。
本稿では,重力異常のない2次元CFTにおける一般的な共変シナリオにおけるBPEとEWCSを計算し,それらが反射エントロピーと一致することを明らかにする。
共変構成では、重力異常の助けを借りて浄化システムの分割を決定し、この議論をトポロジカル質量重力(TMG)に拡張する。
我々は、アインシュタイン重力を超えたEWCSに関連するエントロピー量、すなわちTMGにおけるチャーン・サイモンズ項からのEWCSの補正を評価するための最初の処方薬を与える。
重力理論と幾何学とは別に、混合状態からのさらなる入力も考慮すべきである。 The balanced partial entanglement (BPE) was observed to give the reflected entropy and the entanglement wedge cross-section (EWCS) for various mixed states in different theories \cite{Wen:2021qgx,Camargo:2022mme}. It can be calculated in different purifications, and is conjectured to be independent from purifications. In this paper we calculate the BPE and the EWCS in generic covariant scenarios in two-dimensional CFTs with and without gravitational anomalies, and find that they coincide with the reflected entropy. In covariant configurations we determine the partition for the purifying system with the help of the gravitational anomalies, and we extend our discussion to topological massive gravity (TMG). We give the first prescription to evaluate the entropy quantity associated to the EWCS beyond Einstein gravity, i.e. the correction to the EWCS from the Chern-Simons term in TMG. Apart from the gravity theory and geometry, further input from the mixed state should be taken into account. | 翻訳日:2023-02-12 03:09:42 公開日:2022-09-10 |
# 高分子原子の自己整合場理論に対するガウス基底関数 Gaussian Basis Functions for a Polymer Self-Consistent Field Theory of Atoms ( http://arxiv.org/abs/2208.09078v2 ) ライセンス: Link先を確認 | Phil A. LeMaitre and Russell B. Thompson | (参考訳) 量子密度汎関数理論と同値な高分子自己整合場理論の表現は、非直交基底集合の観点で与えられる。
ガウス基底関数を用いた球対称系の分子積分と自己整合方程式が与えられ、クリプトンを通る中性水素水素の結合エネルギーと放射電子密度が計算される。
厳密な電子自己相互作用補正が採用され、ポーリ排他原理はポリマー排他量の概念によって強制される。
ネオンを通した水素原子は、いくつかの近似なしで、誤りのキャンセルを許容する。
両者の相関関係は単純性の観点から無視され、比較はhartree-fock理論を用いて行われる。
Pauli-Exclusion potentialとその近似形式の影響を論じ、Thomas-Fermi量子運動エネルギーの正しい形とディラック交換補正が回復される電子密度の均一な場合のスケーリング理論を用いてパウリモデルを解析した。 A representation of polymer self-consistent field theory equivalent to quantum density functional theory is given in terms of non-orthogonal basis sets. Molecular integrals and self-consistent equations for spherically symmetric systems using Gaussian basis functions are given, and the binding energies and radial electron densities of neutral atoms hydrogen through krypton are calculated. An exact electron self-interaction correction is adopted and the Pauli-exclusion principle is enforced through ideas of polymer excluded-volume. The atoms hydrogen through neon are additionally examined without some approximations which permit cancellation of errors. Correlations are neglected for both cases in the interest of simplicity and comparisons are made with Hartree-Fock theory. The implications of the Pauli-exclusion potential and its approximate form are discussed, and the Pauli model is analyzed using scaling theory for the uniform electron density case where the correct form of the Thomas-Fermi quantum kinetic energy and the Dirac exchange correction are recovered. | 翻訳日:2023-01-30 17:44:45 公開日:2022-09-10 |
# 多機能イメージングメタレンを用いた任意構造量子放出 Arbitrary structured quantum emission with a multifunctional imaging metalens ( http://arxiv.org/abs/2209.04571v1 ) ライセンス: Link先を確認 | Chi Li, Jaehyuck Jang, Trevon Badloe, Tieshan Yang, Joohoon Kim, Jaekyung Kim, Minh Nguyen, Stefan A. Maier, Junsuk Rho, Haoran Ren, Igor Aharonovich | (参考訳) 複数の自由度で単一光子エミッタからの発光を構造化することは、高次元への量子情報処理において非常に重要である。
しかし、従来の量子光源からの放射の制御は、多次元調整の可能性を制限するために、機能に制限のある複数のバルク光学素子やナノ構造共振器の使用に依存している。
ここでは,室温での量子放出の任意の構造化に極薄偏光ビームスプリット金属を用いた方法を紹介する。
単一メタ原子レベルでの完全かつ独立した偏光と位相制御により、設計されたメタレンは、六方晶窒化ホウ素の超明るい欠陥からの量子放出を同時に撮像し、任意の波面を光源の直交偏光状態に印加することができる。
ハイブリッド量子メタレンは、方向性、偏光、軌道角運動量を含む量子光源の複数の自由度を同時に操作することができる。
多重自由度での量子放出の任意の波面形成は、高度な量子フォトニック応用のための高次元量子源として使用するために固体speの全ポテンシャルを解き放つことができる。 Structuring light emission from single-photon emitters in multiple degrees of freedom is of a great importance for quantum information processing towards higher dimensions. However, traditional control of emission from quantum light sources relies on the use of multiple bulky optical elements or nanostructured resonators with limited functionalities, constraining the potential of multi-dimensional tailoring. Here we introduce the use of an ultrathin polarisation-beam-splitting metalens for the arbitrary structuring of quantum emission at room temperature. Owing to the complete and independent polarisation and phase control at a single meta-atom level, the designed metalens enables simultaneous imaging of quantum emission from ultra-bright defects in hexagonal boron nitride and imprinting of an arbitrary wavefront onto orthogonal polarisation states of the sources. The hybrid quantum metalens enables simultaneous manipulation of multiple degrees of freedom of a quantum light source, including directionality, polarisation, and orbital angular momentum. The demonstrated arbitrary wavefront shaping of quantum emission in multiple degrees of freedom could unleash the full potential of solid-state SPEs for their use as high-dimensional quantum sources for advanced quantum photonic applications. | 翻訳日:2023-01-27 02:57:48 公開日:2022-09-10 |
# 量子時空における量子力学と量子場理論の諸相 Some Aspects of Quantum Mechanics and Quantum Field Theory on Quantum Space- Time ( http://arxiv.org/abs/2209.04758v1 ) ライセンス: Link先を確認 | Partha Nandi | (参考訳) この論文は、非可換時空上の量子力学の様々な側面を研究することに専念し、(0 + 1)次元のトイモデルを用いて、そのような時空上の場の量子論の対称性の現存する側面のいくつかを捉えている。
これにより、より透過的な方法で、これと他の関連する問題に対するいくつかの洞察を得ることができる。 This thesis is devoted to studying various aspects of quantum mechanics on non-commutative space-time and to capture some of the surviving aspects of symmetries of quantum field theory on such space-time, illustrated through toy models in (0 + 1) dimension. This allows one to gain some insights into this and other related issues in a more transparent manner. | 翻訳日:2023-01-27 02:55:45 公開日:2022-09-10 |
# 正規化ラプラシアンにおける量子ウォーク Quantum Walks in the Normalized Laplacian ( http://arxiv.org/abs/2209.04668v1 ) ライセンス: Link先を確認 | Gabriel Coutinho and Pedro Ferreira Baptista | (参考訳) 我々は、ハミルトニアンが正規化されたラプラシアンによって与えられる量子ウォークにおける完全状態移動の特性を与える。
古典的ランダムウォークと量子ウォークの間の関係をこのモデルでのみ議論し、完全状態遷移をホストする候補としていくつかの木を除外する。 We provide a characterization of perfect state transfer in a quantum walk whose Hamiltonian is given by the normalized Laplacian. We discuss a connection between classical random walks and quantum walks only present in this model, and we also rule out several trees as candidates to host perfect state transfer. | 翻訳日:2023-01-27 02:54:31 公開日:2022-09-10 |
# ランダム量子3XORゲームに対する満足度相転移 Satisfiability Phase Transtion for Random Quantum 3XOR Games ( http://arxiv.org/abs/2209.04655v1 ) ライセンス: Link先を確認 | Adam Bene Watts, J. William Helton, Zehong Zhao | (参考訳) 最近の研究では、控えめな大きさの3XORゲームが完全な量子戦略を持つかどうかを決定できることを示した。
このような完全な戦略を構築したり、その存在を反論する明示的な多項式時間アルゴリズムを構築する。
このツールを使うと、ランダムに生成された3XORゲームの振る舞いを多数の質問で数値的に研究できる。
鍵となる問題は、擬似テレパシーゲーム(完全な量子戦略を持つが、完全な古典戦略を持たないゲーム)はどの程度一般的かである。
我々の実験は、擬テレパシー的なランダムに生成されたゲームが 1 から遠く離れている可能性を強く示している。
また、ランダムに生成された3XORゲームが、量子的および古典的な「相転移」の両方で実行され、節数(m$)と質問数(n$)の比率が増加するにつれて、ほぼ確実に完全からほぼ確実に不完全になるという強い証拠も見つかる。
これら2つの相転移の位置は、m/n \approx 2.74$と一致する。 Recent results showed it was possible to determine if a modest size 3XOR game has a perfect quantum strategy. We build on these and give an explicit polynomial time algorithm which constructs such a perfect strategy or refutes its existence. This new tool lets us numerically study the behavior of randomly generated 3XOR games with large numbers of questions. A key issue is: how common are pseudotelephathy games (games with perfect quantum strategies but no perfect classical strategies)? Our experiments strongly indicate that the probability of a randomly generated game being pseudotelpathic stays far from 1, indeed it is bounded below 0.15. We also find strong evidence that randomly generated 3XOR games undergo both a quantum and classical "phase transition", transitioning from almost certainly perfect to almost certainly imperfect as the ratio of number of clauses ($m$) to number of questions ($n$) increases. The locations of these two phase transitions appear to coincide at $m/n \approx 2.74$. | 翻訳日:2023-01-27 02:54:25 公開日:2022-09-10 |
# 非線形および量子光学用熱原子蒸気 Hot atomic vapors for nonlinear and quantum optics ( http://arxiv.org/abs/2209.04622v1 ) ライセンス: Link先を確認 | Quentin Glorieux, Tangui Aladjidi, Paul D Lett, Robin Kaiser | (参考訳) 非線形光学は、レーザーの発明後に主に発見される驚くべき現象を持つ非常にダイナミックな研究分野である。
高強度場と共鳴系の組み合わせにより、共鳴に関する特定の追加効果により非線形性がさらに向上した。
本稿では,過去数十年間,近接室温原子蒸気を非線形共振媒として使用して研究されてきた,これらの効果の限られた範囲について概説する。
特に原子蒸気中の4波長混合(4WM)と非古典光の発生について述べる。
1モードと2モードのスクイーズとフォトン相関について述べる。
さらに,熱水蒸気に基づく光および量子メモリへの応用について述べる。
最後に、熱い原子蒸気を用いた光の量子流体の最近の研究成果について述べる。 Nonlinear optics has been a very dynamic field of research with spectacular phenomena discovered mainly after the invention of lasers. The combination of high intensity fields with resonant systems has further enhanced the nonlinearity with specific additional effects related to the resonances. In this paper we review a limited range of these effects which has been studied in the past decades using close-to-room-temperature atomic vapors as the nonlinear resonant medium. In particular we describe four-wave mixing (4WM) and generation of nonclassical light in atomic vapors. One-and two-mode squeezing as well as photon correlations are discussed. Furthermore, we present some applications for optical and quantum memories based on hot atomic vapors. Finally, we present results on the recently developed field of quantum fluids of light using hot atomic vapors. | 翻訳日:2023-01-27 02:54:06 公開日:2022-09-10 |
# テンソルティーを共有する: データベースが機械学習エコシステムをどのように活用するか Share the Tensor Tea: How Databases can Leverage the Machine Learning Ecosystem ( http://arxiv.org/abs/2209.04579v1 ) ライセンス: Link先を確認 | Yuki Asada, Victor Fu, Apurva Gandhi, Advitya Gemawat, Lihao Zhang, Dong He, Vivek Gupta, Ehi Nosakhare, Dalitso Banda, Rathijit Sen, Matteo Interlandi | (参考訳) テンソルクエリプロセッサ(TQP: Tensor Query Processor)は,関係演算子を自動的にテンソルプログラムにコンパイルするクエリプロセッサである。
PyTorchのようなテンソルランタイムを利用することで、TQPは、(1)MLツール(例えば、データ取り込み用のパンダ、視覚化用のテンソルボード)との統合、(2)異なるハードウェア(例えば、CPU、GPU)とソフトウェア(例えば、ブラウザ)のバックエンドをターゲットにすること、(3)リレーショナルとMLオペレータの両方を含むエンドツーエンドのアクセラレーションクエリを統合することができる。
TQPはTPC-Hベンチマークをサポートするのに十分汎用的であり、特別なCPUやGPUクエリプロセッサに匹敵するパフォーマンスを提供する。 We demonstrate Tensor Query Processor (TQP): a query processor that automatically compiles relational operators into tensor programs. By leveraging tensor runtimes such as PyTorch, TQP is able to: (1) integrate with ML tools (e.g., Pandas for data ingestion, Tensorboard for visualization); (2) target different hardware (e.g., CPU, GPU) and software (e.g., browser) backends; and (3) end-to-end accelerate queries containing both relational and ML operators. TQP is generic enough to support the TPC-H benchmark, and it provides performance that is comparable to, and often better than, that of specialized CPU and GPU query processors. | 翻訳日:2023-01-27 02:53:31 公開日:2022-09-10 |
# 事例に基づく帰納的自然言語推論 Case-Based Abductive Natural Language Inference ( http://arxiv.org/abs/2009.14539v4 ) ライセンス: Link先を確認 | Marco Valentino, Mokanarangan Thayaparan, Andr\'e Freitas | (参考訳) マルチホップ自然言語推論(NLI)の現代のアプローチのほとんどは、それぞれのテストケースを独立に考慮した説明を構築している。
しかし、このパラダイムはセマンティックドリフトに苦しむことが知られており、これは誤った結論につながる突発的な説明の構築を引き起こす現象である。
対照的に,本稿では,ケースベース推論(cbr)におけるレトリーブ・リユース・リファインメントパラダイムを探求するマルチホップnliのためのアブダクティブフレームワークを提案する。
具体的には,類似の例から先行する説明を類推的に移し,未知の推論問題に対処するモデルであるケースベースアブダクティブ自然言語推論(cb-anli)を提案する。
我々は,コモンセンスと科学的質問応答タスクに関する帰納的枠組みを実証的に評価し,cb-anliを疎密な事前学習エンコーダと効果的に統合し,マルチホップ推論を改善したり,トランスフォーマのエビデンスレコーダとして採用できることを示した。
さらに、セマンティックドリフトの実証分析により、CBRパラダイムは、下流推論タスクの堅牢性と正確性に直接影響を与える特徴である最も困難な説明の質を高めることが明らかとなった。 Most of the contemporary approaches for multi-hop Natural Language Inference (NLI) construct explanations considering each test case in isolation. However, this paradigm is known to suffer from semantic drift, a phenomenon that causes the construction of spurious explanations leading to wrong conclusions. In contrast, this paper proposes an abductive framework for multi-hop NLI exploring the retrieve-reuse-refine paradigm in Case-Based Reasoning (CBR). Specifically, we present Case-Based Abductive Natural Language Inference (CB-ANLI), a model that addresses unseen inference problems by analogical transfer of prior explanations from similar examples. We empirically evaluate the abductive framework on commonsense and scientific question answering tasks, demonstrating that CB-ANLI can be effectively integrated with sparse and dense pre-trained encoders to improve multi-hop inference, or adopted as an evidence retriever for Transformers. Moreover, an empirical analysis of semantic drift reveals that the CBR paradigm boosts the quality of the most challenging explanations, a feature that has a direct impact on robustness and accuracy in downstream inference tasks. | 翻訳日:2022-10-12 22:24:46 公開日:2022-09-10 |
# Fr'echet平均の概念と変形モデルの枠組みを組み合わせた機能的プロファイルのモニタリングと環境大気汚染監視への応用 Monitoring of functional profiles combining the notion of Fr\'echet mean and the framework of deformation models with application in ambient air pollution surveillance ( http://arxiv.org/abs/2010.02968v2 ) ライセンス: Link先を確認 | Georgios I. Papayiannis, Stelios Psarakis, Athanasios N. Yannacopoulos | (参考訳) Fr'echet平均の概念と変形モデルの概念を組み合わせた関数プロファイルの監視に適したフレームワークを開発し提案する。
Fr'echet平均の概念はデータの典型的な機能的形状を捉えるのに用いられ、一方変形モデルの概念はプロファイルの偏差を典型的な形状から解釈可能なパラメータ化を可能にする。
機能データの形状特性に基づいて機能的EWMA型制御チャートを構築し,提案する。
(a)制御内行動からの転換を識別すること、及び
b) ある定性的特性(振幅や位相変形など)の有意な欠如を伴って電位シフトの因果関係を提供する。
環境大気汚染を評価するために機能監視方式が実装されている。
特に、種々の条件下での性能を評価するための合成データ例や、大気汚染物質プロファイルとその特性をうまく分析し、制御外行動を特定するアテネ市の地域からのセンサデータを用いた実世界の例に実装する。 A framework suitable for monitoring functional profiles combining the notion of Fr\'echet mean and the concept of deformation models is developed and proposed. The generalized sense of mean that the notion of the Fr\'echet mean offers is employed to capture the typical functional shape of the data, while the concept of deformation models allows for interpretable parameterizations of profile's deviations from the typical shape. Functional EWMA-type control charts are built and proposed based on shape characteristics of the functional data, allowing for (a) identifying shifts from the in-control behaviour and (b) providing causal relationships of the potential shifts with significant deviances of certain qualitative characteristics (e.g amplitude or phase deformations). The functional monitoring scheme is implemented to assess ambient air pollution. In particular, the method is implemented to a synthetic data example to assess its performance under various conditions, and to a real-world example using sensor data from an area in the city of Athens, where air pollutants profiles and their characteristics are successfully analyzed and out-of-control behaviours are identified. | 翻訳日:2022-10-10 06:21:37 公開日:2022-09-10 |
# 質問応答システムの評価:自然言語判定の複雑さ Evaluation of Question Answering Systems: Complexity of judging a natural language ( http://arxiv.org/abs/2209.12617v1 ) ライセンス: Link先を確認 | Amer Farea, Zhen Yang, Kien Duong, Nadeesha Perera, and Frank Emmert-Streib | (参考訳) 質問応答(QA)システムは、自然言語処理(NLP)において最も重要かつ急速に発展している研究トピックの一つである。
そのため、QAシステムは、例えば仮想アシスタントや検索エンジンを介して、人間が機械とより自然に対話できるためである。
過去数十年間、様々な質問応答タスクの要求に対応するために多くのQAシステムが提案されてきた。
さらに、例えば、QAシステムの性能を測定するために、n-gramマッチング、単語埋め込み、文脈埋め込みに基づいて多くのエラースコアが導入された。
本調査では,QAの枠組み,QAパラダイム,ベンチマークデータセット,およびQAシステムの定量的評価のための評価手法の体系的概要を提供する。
後者は特に重要であり、QAシステム複合体の構築だけでなく、その評価も重要である。
したがって、人間の判断の定量的な形式化はオープンな問題である、という仮説を立てる。 Question answering (QA) systems are among the most important and rapidly developing research topics in natural language processing (NLP). A reason, therefore, is that a QA system allows humans to interact more naturally with a machine, e.g., via a virtual assistant or search engine. In the last decades, many QA systems have been proposed to address the requirements of different question-answering tasks. Furthermore, many error scores have been introduced, e.g., based on n-gram matching, word embeddings, or contextual embeddings to measure the performance of a QA system. This survey attempts to provide a systematic overview of the general framework of QA, QA paradigms, benchmark datasets, and assessment techniques for a quantitative evaluation of QA systems. The latter is particularly important because not only is the construction of a QA system complex but also its evaluation. We hypothesize that a reason, therefore, is that the quantitative formalization of human judgment is an open problem. | 翻訳日:2022-10-02 23:40:04 公開日:2022-09-10 |
# 騒音学習を用いた流行関連つぶやきの同定 Identifying epidemic related Tweets using noisy learning ( http://arxiv.org/abs/2209.12614v1 ) ライセンス: Link先を確認 | Ramya Tekumalla and Juan M. Banda | (参考訳) 教師付き学習アルゴリズムは、アノテーション付きデータセットに強く依存し、機械学習モデルをトレーニングする。
しかし、注釈付きデータセットのキュレーションは手間がかかり、マニュアルによる作業が原因で時間がかかり、教師あり学習において大きなボトルネックとなっている。
本研究では,手動アノテーションの代わりに雑音学習理論を適用して,弱い監視信号を生成する。
ラベル付きヒューリスティックを用いて、ノイズの多いラベル付きデータセットをキュレートし、流行に関連するツイートを識別する。
本研究では, 大規模流行コーパスを用いて評価を行い, 騒音データを用いて訓練したモデルが90%以上の性能を達成できたことを実証した。 Supervised learning algorithms are heavily reliant on annotated datasets to train machine learning models. However, the curation of the annotated datasets is laborious and time consuming due to the manual effort involved and has become a huge bottleneck in supervised learning. In this work, we apply the theory of noisy learning to generate weak supervision signals instead of manual annotation. We curate a noisy labeled dataset using a labeling heuristic to identify epidemic related tweets. We evaluated the performance using a large epidemic corpus and our results demonstrate that models trained with noisy data in a class imbalanced and multi-classification weak supervision setting achieved performance greater than 90%. | 翻訳日:2022-10-02 23:39:50 公開日:2022-09-10 |
# 対比的リスク予測を用いた安全強化学習 Safe Reinforcement Learning with Contrastive Risk Prediction ( http://arxiv.org/abs/2209.09648v1 ) ライセンス: Link先を確認 | Hanping Zhang, Yuhong Guo | (参考訳) ロボット分野における強化学習(Reinforcement Learning, RL)の展開は, 安全性違反が現実世界のロボットアプリケーションに深刻な影響をもたらす可能性があるため, 強化学習(reforcement learning, RL)のための安全な探索研究が推進されている。
本研究では,安全でない状態につながる状態-動作ペアの確率を予測するために,統計的対比分類器を学習するsafe rlのリスク予防訓練手法を提案する。
予測されたリスク確率に基づいて、リスク防止トラジェクトリを収集し、報酬関数をリスクペナルティで再形成し、安全なRLポリシーを導き出す。
ロボットシミュレーション環境で実験を行う。
その結果,提案手法は最先端のモデルベース手法と同等の性能を示し,従来のモデルフリーなRL手法よりも優れていた。 As safety violations can lead to severe consequences in real-world robotic applications, the increasing deployment of Reinforcement Learning (RL) in robotic domains has propelled the study of safe exploration for reinforcement learning (safe RL). In this work, we propose a risk preventive training method for safe RL, which learns a statistical contrastive classifier to predict the probability of a state-action pair leading to unsafe states. Based on the predicted risk probabilities, we can collect risk preventive trajectories and reshape the reward function with risk penalties to induce safe RL policies. We conduct experiments in robotic simulation environments. The results show the proposed approach has comparable performance with the state-of-the-art model-based methods and outperforms conventional model-free safe RL approaches. | 翻訳日:2022-09-25 17:32:31 公開日:2022-09-10 |
# ジェネレータとしての利用分類器 Use Classifier as Generator ( http://arxiv.org/abs/2209.09210v1 ) ライセンス: Link先を確認 | Haoyang Li | (参考訳) 画像認識/分類は広く研究されている問題であるが、その逆問題である画像生成は近年まで注目されていない。
しかし、現在の画像生成のほとんどの方法は、特定の制約のある分類器やジェネレータを訓練/再訓練する必要がある。
本稿では,通常訓練された分類器を用いて画像を生成するための簡易な手法を提案する。
提案手法をMNISTで評価し,実験により人間の目に対する認識可能な結果が得られた。 Image recognition/classification is a widely studied problem, but its reverse problem, image generation, has drawn much less attention until recently. But the vast majority of current methods for image generation require training/retraining a classifier and/or a generator with certain constraints, which can be hard to achieve. In this paper, we propose a simple approach to directly use a normally trained classifier to generate images. We evaluate our method on MNIST and show that it produces recognizable results for human eyes with limited quality with experiments. | 翻訳日:2022-09-25 17:31:37 公開日:2022-09-10 |
# OmDet:大規模ビジョンランゲージマルチデータセット事前学習による言語対応オブジェクト検出 OmDet: Language-Aware Object Detection with Large-scale Vision-Language Multi-dataset Pre-training ( http://arxiv.org/abs/2209.05946v1 ) ライセンス: Link先を確認 | Tiancheng Zhao, Peng Liu, Xiaopeng Lu and Kyusong Lee | (参考訳) オープンボキャブラリーと少数ショット転送への物体検出の進歩は、コンピュータビジョン研究にとって長年の課題だった。
本研究は,マルチデータセット視覚言語事前学習によるゼロ/フェーショット能力の拡張を可能にする,連続学習アプローチを探求する。
自然言語を知識表現として使用し,異なる学習データセットから「視覚語彙」を蓄積し,言語条件検出フレームワークとしてタスクを統一する手法を検討する。
具体的には,新しい言語対応検出器OmDetと学習機構を提案する。
提案するマルチモーダル検出ネットワークは,マルチデータセット合同トレーニングにおける技術的課題を解決し,手動ラベル分類統合を必要とせずに任意の数のトレーニングデータセットに一般化することができる。
COCO, Pascal VOC, Wider Face/Pedestrian を用いた実験の結果, 個別のトレーニングと比較すると, 同等以上のスコアを達成できることが確認された。
さらに,400万のユニークなオブジェクト語彙を持つ2000万以上の画像に対して事前学習を行い,ODinWの下流タスク35件について評価を行った。
その結果,OmDetはODinW上での最先端の微調整性能を実現することができた。
また,提案した事前学習手法をスケールアップすることにより,OmDetのゼロ/フェーショットチューニング性能が向上し続け,さらなるスケーリングを実現するための有望な方法が示唆されている。 Advancing object detection to open-vocabulary and few-shot transfer has long been a challenge for computer vision research. This work explores a continual learning approach that enables a detector to expand its zero/few-shot capabilities via multi-dataset vision-language pre-training. Using natural language as knowledge representation, we explore methods to accumulate "visual vocabulary" from different training datasets and unify the task as a language-conditioned detection framework. Specifically, we propose a novel language-aware detector OmDet and a novel training mechanism. The proposed multimodal detection network can resolve the technical challenges in multi-dataset joint training and it can generalize to arbitrary number of training datasets without the requirements for manual label taxonomy merging. Experiment results on COCO, Pascal VOC, and Wider Face/Pedestrian confirmed the efficacy by achieving on par or higher scores in joint training compared to training separately. Moreover, we pre-train on more than 20 million images with 4 million unique object vocabulary, and the resulting model is evaluated on 35 downstream tasks of ODinW. Results show that OmDet is able to achieve the state-of-the-art fine-tuned performance on ODinW. And analysis shows that by scaling up the proposed pre-training method, OmDet continues to improve its zero/few-shot tuning performance, suggesting a promising way for further scaling. | 翻訳日:2022-09-14 12:10:05 公開日:2022-09-10 |
# APTx: 深層学習におけるMISH, SWISH, ReLUの変種よりも優れた活性化機能 APTx: better activation function than MISH, SWISH, and ReLU's variants used in deep learning ( http://arxiv.org/abs/2209.06119v1 ) ライセンス: Link先を確認 | Ravin Kumar | (参考訳) Activation Functionsはディープニューラルネットワークに非線形性を導入する。
この非線形性は、データセットからニューラルネットワークを高速かつ効率的に学習するのに役立つ。
ディープラーニングでは、型問題文に基づいて多くのアクティベーション関数が開発され、使用される。
ReLUの変種であるSWISHとMISHはgotoアクティベーション機能である。
MISH 関数は SWISH とよく似ており、ReLU よりずっと良い性能である。
本稿では,MISHとよく似た動作をするアクティベーション関数 APTx を提案する。
APTxのより少ない計算要件は、モデルのトレーニングを高速化し、深層学習モデルのハードウェア要件を低減します。 Activation Functions introduce non-linearity in the deep neural networks. This nonlinearity helps the neural networks learn faster and efficiently from the dataset. In deep learning, many activation functions are developed and used based on the type problem statement. ReLU's variants, SWISH, and MISH are goto activation functions. MISH function is considered similar or even better performance than SWISH, and much better than ReLU. In this paper, we propose an activation function named APTx which behaves similar to MISH, but requires lesser mathematical operations to compute. The lesser computational requirements of APTx does speed up the model training, and thus also reduces the hardware requirement for the deep learning model. | 翻訳日:2022-09-14 12:06:35 公開日:2022-09-10 |
# bayanアルゴリズム:モジュラリティの完全および近似最適化によるネットワーク内のコミュニティの検出 The Bayan Algorithm: Detecting Communities in Networks Through Exact and Approximate Optimization of Modularity ( http://arxiv.org/abs/2209.04562v1 ) ライセンス: Link先を確認 | Samin Aref, Hriday Chheda, and Mahdi Mostajabdaveh | (参考訳) コミュニティ検出はネットワーク科学における古典的な問題であり、様々な分野に幅広く応用されている。
最も一般的に使われている方法は、ネットワークをコミュニティに分割する様々な方法で、ユーティリティ関数、モジュラリティを最大化するアルゴリズムである。
名前と設計哲学にもかかわらず、現在のモジュラリティ最大化アルゴリズムは一般にモジュラリティを最大化したり、最適な解に近いことを保証できない。
本稿では,既存の手法と異なり,最適性あるいは最適解に近接することを保証するネットワーク分割を返すBayanアルゴリズムを提案する。
ベイアンアルゴリズムの中核は、モジュラリティ最大化問題のスパース整数計画式を最適性や係数内で近似するために解く分岐とカットのスキームである。
本研究では,22の既存アルゴリズムに対するbayanの性能を合成および実ネットワークを用いて解析する。
広範な実験を通じて,モジュラリティを最大化するだけでなく,地対地コミュニティの正確な検索において,bayanの特有な能力を示す。
ベイアンの比較レベルは、データ(グラフ)生成プロセスにおけるノイズの量の変化に対して安定である。
正確なモジュラリティ最大化アルゴリズムとしてのBayanの性能はまた、コミュニティの正確な検索における最大モジュラリティ分割の理論的能力限界を明らかにしている。
全体として、bayanは最大$\sim10^3$のエッジ(およびより大きなネットワーク)を持つネットワークにおけるモジュラリティの厳密な(ほぼ)最大化を通じて、方法論的に基礎づけられたコミュニティの検出に適した選択肢であると考えています。
グラフ最適化と整数プログラミングの将来の進歩は、これらの限界をさらに押し進めることができる。 Community detection is a classic problem in network science with extensive applications in various fields. The most commonly used methods are the algorithms designed to maximize a utility function, modularity, across different ways that a network can be partitioned into communities. Despite their name and design philosophy, current modularity maximization algorithms generally fail to maximize modularity or guarantee any proximity to an optimal solution. We propose the Bayan algorithm which, unlike the existing methods, returns network partitions with a guarantee of either optimality or proximity to an optimal solution. At the core of the Bayan algorithm is a branch-and-cut scheme that solves a sparse integer programming formulation of the modularity maximization problem to optimality or approximate it within a factor. We analyze the performance of Bayan against 22 existing algorithms using synthetic and real networks. Through extensive experiments, we demonstrate Bayan's distinctive capabilities not only in maximizing modularity, but more importantly in accurate retrieval of ground-truth communities. Bayan's comparative level of performance remains stable over variations in the amount of noise in the data (graph) generation process. The performance of Bayan as an exact modularity maximization algorithm also reveals the theoretical capability limits of maximum-modularity partitions in accurate retrieval of communities. Overall our analysis points to Bayan as a suitable choice for a methodologically grounded detection of communities through exact (approximate) maximization of modularity in networks with up to $\sim10^3$ edges (and larger networks). Prospective advances in graph optimization and integer programming can push these limits further. | 翻訳日:2022-09-13 14:22:52 公開日:2022-09-10 |
# lisaパスファインダーを用いた宇宙線データに対する不透明予測器からの記号的知識抽出 Symbolic Knowledge Extraction from Opaque Predictors Applied to Cosmic-Ray Data Gathered with LISA Pathfinder ( http://arxiv.org/abs/2209.04697v1 ) ライセンス: Link先を確認 | Federico Sabbatini and Catia Grimani | (参考訳) 機械学習モデルは、現在宇宙のミッションにおいてユビキタスであり、多変量時系列の予測から入力データの特定のパターンの検出まで、幅広いタスクを実行している。
一般的に採用されているモデルは、ディープニューラルネットワークや他の複雑な機械学習アルゴリズムであり、不透明な予測を提供する。
不透明な機械学習モデルの印象的な予測性能と、記号的知識抽出手法の適用など、人間の知的な予測説明を組み合わせるためのいくつかの技術が文献に存在している。
本稿では,LISAパスファインダー宇宙ミッションで収集した宇宙線データを再生可能なアンサンブル予測器に適用した異なる知識抽出器の結果を報告する。
抽出された知識の可読性/忠実性トレードオフについても論じる。 Machine learning models are nowadays ubiquitous in space missions, performing a wide variety of tasks ranging from the prediction of multivariate time series through the detection of specific patterns in the input data. Adopted models are usually deep neural networks or other complex machine learning algorithms providing predictions that are opaque, i.e., human users are not allowed to understand the rationale behind the provided predictions. Several techniques exist in the literature to combine the impressive predictive performance of opaque machine learning models with human-intelligible prediction explanations, as for instance the application of symbolic knowledge extraction procedures. In this paper are reported the results of different knowledge extractors applied to an ensemble predictor capable of reproducing cosmic-ray data gathered on board the LISA Pathfinder space mission. A discussion about the readability/fidelity trade-off of the extracted knowledge is also presented. | 翻訳日:2022-09-13 14:19:32 公開日:2022-09-10 |
# データ駆動型マルチモーメント流体モデルによるランドーダンピング Data-driven, multi-moment fluid modeling of Landau damping ( http://arxiv.org/abs/2209.04726v1 ) ライセンス: Link先を確認 | Wenjie Cheng, Haiyang Fu, Liang Wang, Chuanfei Dong, Yaqiu Jin, Mingle Jiang, Jiayu Ma, Yilan Qin, Kexin Liu | (参考訳) 第一原理に基づく複素物理系の制御方程式を導出することは、系に未知の用語と隠れた物理メカニズムがある場合、非常に困難である。
本研究では,完全運動モデルから得られたデータに基づいて,プラズマ系の流体偏微分方程式(pdes)を学習するために,ディープラーニングアーキテクチャを適用する。
学習した多モーメント流体PDEはランダウ減衰などの運動効果を取り入れることを示した。
学習流体の閉包に基づき、データ駆動マルチモーメント流体モデリングは、完全な運動モデルから得られた物理量をすべて再現することができる。
ランダウ減衰の計算減衰速度は、全運動シミュレーションと線形理論の両方と一致している。
複雑な物理系に対するPDEのデータ駆動流体モデリングは、流体閉鎖の改善と、グローバルシステムのマルチスケールモデリングの計算コスト削減に応用できる。 Deriving governing equations of complex physical systems based on first principles can be quite challenging when there are certain unknown terms and hidden physical mechanisms in the systems. In this work, we apply a deep learning architecture to learn fluid partial differential equations (PDEs) of a plasma system based on the data acquired from a fully kinetic model. The learned multi-moment fluid PDEs are demonstrated to incorporate kinetic effects such as Landau damping. Based on the learned fluid closure, the data-driven, multi-moment fluid modeling can well reproduce all the physical quantities derived from the fully kinetic model. The calculated damping rate of Landau damping is consistent with both the fully kinetic simulation and the linear theory. The data-driven fluid modeling of PDEs for complex physical systems may be applied to improve fluid closure and reduce the computational cost of multi-scale modeling of global systems. | 翻訳日:2022-09-13 14:19:19 公開日:2022-09-10 |
# 因果モデルにおける最適介入設計のためのアクティブラーニング Active Learning for Optimal Intervention Design in Causal Models ( http://arxiv.org/abs/2209.04744v1 ) ライセンス: Link先を確認 | Jiaqi Zhang, Louis Cammarata, Chandler Squires, Themistoklis P. Sapsis and Caroline Uhler | (参考訳) 規律を越えた重要な問題は、望ましい結果をもたらす介入の発見である。
介入可能な空間が大きくなると、徹底的な探索が不可能になり、実験的な設計戦略が必要である。
この文脈では、変数間の因果関係をエンコードし、そのため、望ましい介入を効率的に識別するために、システムへの介入の効果が重要である。
本研究では, 最適な介入を識別するための反復的因果法を, 分布の介入後平均と所望の目標平均との差から求めた。
我々は,様々な介入から得られたサンプルを用いて,根底にある因果関係モデルに対する信念を更新し,最適な介入について最も有意義なサンプルを同定し,次のバッチで取得すべきとする,活発な学習戦略を定式化した。
このアプローチは因果モデルにベイズ的更新を採用し、慎重に設計され、因果的にインフォームドされた取得関数を使用して介入を優先する。
この獲得関数は閉じた形で評価され、効率的な最適化が可能となる。
結果のアルゴリズムは、理論上は情報理論上の境界と証明可能な整合性を持つ。
本研究では,合成データと実世界の生体データ,すなわちperturb-cite-seq実験による遺伝子発現データの両方を用いて,特定の細胞状態遷移を誘導する最適な摂動を同定する手法を示す。
いずれの場合も、因果的情報取得機能は既存の基準を著しく上回り、最適な介入設計が可能であり、実験は極めて少ない。 An important problem across disciplines is the discovery of interventions that produce a desired outcome. When the space of possible interventions is large, making an exhaustive search infeasible, experimental design strategies are needed. In this context, encoding the causal relationships between the variables, and thus the effect of interventions on the system, is critical in order to identify desirable interventions efficiently. We develop an iterative causal method to identify optimal interventions, as measured by the discrepancy between the post-interventional mean of the distribution and a desired target mean. We formulate an active learning strategy that uses the samples obtained so far from different interventions to update the belief about the underlying causal model, as well as to identify samples that are most informative about optimal interventions and thus should be acquired in the next batch. The approach employs a Bayesian update for the causal model and prioritizes interventions using a carefully designed, causally informed acquisition function. This acquisition function is evaluated in closed form, allowing for efficient optimization. The resulting algorithms are theoretically grounded with information-theoretic bounds and provable consistency results. We illustrate the method on both synthetic data and real-world biological data, namely gene expression data from Perturb-CITE-seq experiments, to identify optimal perturbations that induce a specific cell state transition; the proposed causal approach is observed to achieve better sample efficiency compared to several baselines. In both cases we observe that the causally informed acquisition function notably outperforms existing criteria allowing for optimal intervention design with significantly less experiments. | 翻訳日:2022-09-13 14:10:08 公開日:2022-09-10 |
# 学習問題としてのコードコンプライアンス評価 Code Compliance Assessment as a Learning Problem ( http://arxiv.org/abs/2209.04602v1 ) ライセンス: Link先を確認 | Neela Sawant, Srinivasan H. Sengamedu | (参考訳) 手動コードレビューと静的コードアナライザは、ソースコードがコーディングポリシーに準拠しているかどうかを検証するための従来のメカニズムである。
しかし、これらのメカニズムはスケールが難しい。
我々は、機械学習(ML)問題としてコードコンプライアンスアセスメントを定式化し、自然言語ポリシーとコードを入力するとともに、コードのコンプライアンス、非コンプライアンス、あるいは無関係性に関する予測を生成する。
これはコンプライアンスの分類をスケールし、従来のメカニズムでカバーされていないポリシーを検索するのに役立ちます。
MLモデルの定式化、トレーニングデータ、評価設定に関する重要な研究課題について検討する。
核となる考え方は、コードとポリシーの埋め込みのベクトル距離を通じてコンプライアンス関係を保存する共同のコードテキスト埋め込み空間を得ることである。
タスク固有のデータがないため、セマンティックギャップを減らすためのトレーニング前タスクとファインタニング前タスクを追加して、一般的に利用可能なソフトウェアデータセットを再解釈し、フィルタリングします。
我々は2つのコーディングポリシー(CWEとCBP)をベンチマークした。
これはゼロショット評価であり、トレーニングセットではどのポリシーも発生しない。
CWE, CBPでは, 分類精度が59%, 71%, MRRが0.05, 0.21, CodeBERTが37%, 54%, MRRが0.02, 0.02であった。
ユーザ調査では、24%のPolicy2Code検出が、CodeBERTの7%と比較された。 Manual code reviews and static code analyzers are the traditional mechanisms to verify if source code complies with coding policies. However, these mechanisms are hard to scale. We formulate code compliance assessment as a machine learning (ML) problem, to take as input a natural language policy and code, and generate a prediction on the code's compliance, non-compliance, or irrelevance. This can help scale compliance classification and search for policies not covered by traditional mechanisms. We explore key research questions on ML model formulation, training data, and evaluation setup. The core idea is to obtain a joint code-text embedding space which preserves compliance relationships via the vector distance of code and policy embeddings. As there is no task-specific data, we re-interpret and filter commonly available software datasets with additional pre-training and pre-finetuning tasks that reduce the semantic gap. We benchmarked our approach on two listings of coding policies (CWE and CBP). This is a zero-shot evaluation as none of the policies occur in the training set. On CWE and CBP respectively, our tool Policy2Code achieves classification accuracies of (59%, 71%) and search MRR of (0.05, 0.21) compared to CodeBERT with classification accuracies of (37%, 54%) and MRR of (0.02, 0.02). In a user study, 24% Policy2Code detections were accepted compared to 7% for CodeBERT. | 翻訳日:2022-09-13 14:03:26 公開日:2022-09-10 |
# 協力と競争:進化的マルチエージェント強化学習との融合 Cooperation and Competition: Flocking with Evolutionary Multi-Agent Reinforcement Learning ( http://arxiv.org/abs/2209.04696v1 ) ライセンス: Link先を確認 | Yunxiao Guo, Xinjia Xie, Runhao Zhao, Chenglan Zhu, Jiangting Yin, Han Long | (参考訳) フラッキングはマルチエージェントシステムにおいて非常に困難な問題であり、従来のフラッキング手法では環境の完全な知識と制御のための正確なモデルも必要である。
本稿では,協調と競争をほとんど事前知識と組み合わせたハイブリッドアルゴリズムであるflocking tasksにおける進化的マルチエージェント強化学習(emarl)を提案する。
協力については,boidsモデルに基づき,タスク群集に対するエージェントの報酬をデザインする。
競争において、高いフィットネスのエージェントはシニアエージェントとして設計され、低いフィットネスのエージェントはジュニアエージェントとして設計され、下位エージェントは統計的にシニアエージェントのパラメータを継承する。
競争を激化させるため,フロッディングタスクにおけるクレジット割り当ての有効性を示す進化的選択機構も設計する。
実験結果から、EMARLは完全な競合や協調手法よりも優れており、様々な挑戦的かつ自己コントラストなベンチマークが得られた。 Flocking is a very challenging problem in a multi-agent system; traditional flocking methods also require complete knowledge of the environment and a precise model for control. In this paper, we propose Evolutionary Multi-Agent Reinforcement Learning (EMARL) in flocking tasks, a hybrid algorithm that combines cooperation and competition with little prior knowledge. As for cooperation, we design the agents' reward for flocking tasks according to the boids model. While for competition, agents with high fitness are designed as senior agents, and those with low fitness are designed as junior, letting junior agents inherit the parameters of senior agents stochastically. To intensify competition, we also design an evolutionary selection mechanism that shows effectiveness on credit assignment in flocking tasks. Experimental results in a range of challenging and self-contrast benchmarks demonstrate that EMARL significantly outperforms the full competition or cooperation methods. | 翻訳日:2022-09-13 14:02:59 公開日:2022-09-10 |
# 凸強凸サドル点問題の加速原始双対法 Accelerated Primal-Dual Methods for Convex-Strongly-Concave Saddle Point Problems ( http://arxiv.org/abs/2209.04604v1 ) ライセンス: Link先を確認 | Mohammad Khalafi, Digvijay Boob | (参考訳) 本研究では,差動点問題(SPP)に対するPrimal-Dual(PD)法について検討する。
多くの場合、素数のみの関数上の近似オラクルの計算は非効率である。
したがって,線形化pd法(lpd法)による近位ステップでは,その一階線形近似を用いる。
カップリング項が双線型である場合でも、LPDは原始関数のリプシッツ定数に最適値に依存することが観察される。
対照的に lpd は強凸凸の場合の最適収束を持つ。
この観測により, 凸凸型SPPを解くために, 加速線形化原始双対 (ALPD) アルゴリズムを提案する。
ALPDは、ネステロフの加速勾配降下(AGD)とLPDの特徴を組み合わせた単一ループアルゴリズムである。
結合項が半線型(特定の場合として双線型を含む)であるとき、alpdは原始関数のリプシッツ定数の最適依存性を得る。
したがって、最適なアルゴリズムである。
結合項が一般的な非線形形式を持つとき、alpdアルゴリズムは結合項の原始部分のリプシッツ定数に準最適依存性を持つ。
この依存性を改善するために,不正確なAPDアルゴリズムを提案する。
このアルゴリズムは、adpの近位部分問題に対する近似解を見つけるために内側ループでagd反復を実行する。
我々は,不正確なAPDが,問題の主成分と双対部分の勾配評価(漸進的複雑性)を最適に維持していることを示す。
また、主結合項の勾配複雑度を著しく改善する。 In this work, we aim to investigate Primal-Dual (PD) methods for convex-strongly-concave saddle point problems (SPP). In many cases, the computation of the proximal oracle over the primal-only function is inefficient. Hence, we use its first-order linear approximation in the proximal step resulting in a Linearized PD (LPD) method. Even when the coupling term is bilinear, we observe that LPD has a suboptimal dependence on the Lipschitz constant of the primal-only function. In contrast, LPD has optimal convergence for the strongly-convex concave case. This observation induces us to present our accelerated linearized primal-dual (ALPD) algorithm to solve convex strongly-concave SPP. ALPD is a single-loop algorithm that combines features of Nesterov's accelerated gradient descent (AGD) and LPD. We show that when the coupling term is semi-linear (which contains bilinear as a specific case), ALPD obtains the optimal dependence on the Lipschitz constant of primal-only function. Hence, it is an optimal algorithm. When the coupling term has a general nonlinear form, the ALPD algorithm has suboptimal dependence on the Lipschitz constant of the primal part of the coupling term. To improve this dependence, we present an inexact APD algorithm. This algorithm performs AGD iterations in the inner loop to find an approximate solution to a proximal subproblem of APD. We show that inexact APD maintains optimal number of gradients evaluations (gradient complexity) of primal-only and dual parts of the problem. It also significantly improves the gradient-complexity of the primal coupling term. | 翻訳日:2022-09-13 14:00:56 公開日:2022-09-10 |
# 長期的歴史的需要データの再構築 Reconstruction of Long-Term Historical Demand Data ( http://arxiv.org/abs/2209.04693v1 ) ライセンス: Link先を確認 | Reshmi Ghosh, Michael Craig, H.Scott Matthews, Constantine Samaras, Laure Berti-Equille | (参考訳) 強固な電力システムの長期計画には需要変化のパターンを理解する必要がある。
電力需要は非常に天候に敏感である。
したがって、供給側の変動は、需要の変動に富んだ断続的な再生可能資源の導入から生じ、グリッド計画プロセスに新たな課題をもたらすことになる。
米国における温度の空間的および時間的変動を理解することにより、特に前者の要因による影響が分かっていないため、自然変動と気候変動関連の影響に対する需要の反応を分離することができる。
本研究は,多分野の需要記録を再構築し,温度の自然変動とその需要への影響を研究するために,機械学習とディープラーニングの「バックフォアキャスティング」モデルを開発することにより,電力システムの技術・政策開発プロセスをより良く支援することを目的としている。 Long-term planning of a robust power system requires the understanding of changing demand patterns. Electricity demand is highly weather sensitive. Thus, the supply side variation from introducing intermittent renewable sources, juxtaposed with variable demand, will introduce additional challenges in the grid planning process. By understanding the spatial and temporal variability of temperature over the US, the response of demand to natural variability and climate change-related effects on temperature can be separated, especially because the effects due to the former factor are not known. Through this project, we aim to better support the technology & policy development process for power systems by developing machine and deep learning 'back-forecasting' models to reconstruct multidecadal demand records and study the natural variability of temperature and its influence on demand. | 翻訳日:2022-09-13 14:00:33 公開日:2022-09-10 |
# チップシミュレーションのための熱機械学習ソルバ A Thermal Machine Learning Solver For Chip Simulation ( http://arxiv.org/abs/2209.04741v1 ) ライセンス: Link先を確認 | Rishikesh Ranade, Haiyang He, Jay Pathak, Norman Chang, Akhilesh Kumar, Jimin Wen | (参考訳) 熱分析は、異なる温度シナリオ下での電子チップの挙動に関する深い洞察を与え、より高速な設計探索を可能にする。
しかし,FEMやCFDを用いてチップの温度分布を正確に把握するには非常に時間がかかる。
そのため、さまざまなシステムシナリオに対処するために、オンチップのサーマルソリューションをスピードアップする必要がある。
本稿では,チップの熱シミュレーションを高速化するための機械学習(ML)ソルバを提案する。
サーマルmlソルバ(thermal ml-solver)は、最新の新しいアプローチであるcoaemlsim(composable autoencoder machine learning simulator)の拡張である。
提案手法は ansys mapdl や最新の ml ベースライン unet といった商用ソルバに対して,異なるシナリオで検証することで,精度,スケーラビリティ,一般化性の向上を実証する。 Thermal analysis provides deeper insights into electronic chips behavior under different temperature scenarios and enables faster design exploration. However, obtaining detailed and accurate thermal profile on chip is very time-consuming using FEM or CFD. Therefore, there is an urgent need for speeding up the on-chip thermal solution to address various system scenarios. In this paper, we propose a thermal machine-learning (ML) solver to speed-up thermal simulations of chips. The thermal ML-Solver is an extension of the recent novel approach, CoAEMLSim (Composable Autoencoder Machine Learning Simulator) with modifications to the solution algorithm to handle constant and distributed HTC. The proposed method is validated against commercial solvers, such as Ansys MAPDL, as well as a latest ML baseline, UNet, under different scenarios to demonstrate its enhanced accuracy, scalability, and generalizability. | 翻訳日:2022-09-13 14:00:19 公開日:2022-09-10 |
# フレームカメラを用いたリアルタイムイベントシミュレーション Real-time event simulation with frame-based cameras ( http://arxiv.org/abs/2209.04634v1 ) ライセンス: Link先を確認 | Andreas Ziegler, Daniel Teigland, Jonas Tebbe, Thomas Gossard and Andreas Zell | (参考訳) イベントカメラはロボット工学やコンピュータビジョンにおいて、高時間分解能、高帯域幅、ほとんど動きのぼやけ、消費電力の低さなどの利点のために人気が高まっている。
しかし、これらのカメラは高価で市場に出回らないため、大多数にはアクセスできない。
イベントシミュレータを使用すると、実際のイベントカメラが新しいアルゴリズムを開発する必要が最小限になる。
しかし、シミュレーションの計算の複雑さのため、既存のシミュレータのイベントストリームをリアルタイムで生成することはできないが、既存のビデオシーケンスから事前計算するか、仮想3Dシーンからシミュレーションする必要がある。
これらのオフライン生成されたイベントストリームは、学習タスクのトレーニングデータとして使用できるが、実際のイベントカメラを必要とするため、すべての応答時間依存アプリケーションは、これらのシミュレータの恩恵を受けられない。
本研究は, 性能評価において競争力を維持しつつ, イベントシミュレーションの性能を2桁(リアルタイム化)で向上させるシミュレーション手法を提案する。 Event cameras are becoming increasingly popular in robotics and computer vision due to their beneficial properties, e.g., high temporal resolution, high bandwidth, almost no motion blur, and low power consumption. However, these cameras remain expensive and scarce in the market, making them inaccessible to the majority. Using event simulators minimizes the need for real event cameras to develop novel algorithms. However, due to the computational complexity of the simulation, the event streams of existing simulators cannot be generated in real-time but rather have to be pre-calculated from existing video sequences or pre-rendered and then simulated from a virtual 3D scene. Although these offline generated event streams can be used as training data for learning tasks, all response time dependent applications cannot benefit from these simulators yet, as they still require an actual event camera. This work proposes simulation methods that improve the performance of event simulation by two orders of magnitude (making them real-time capable) while remaining competitive in the quality assessment. | 翻訳日:2022-09-13 13:49:27 公開日:2022-09-10 |
# マルチビヘイビア勧告における公正のための因果介入 Causal Intervention for Fairness in Multi-behavior Recommendation ( http://arxiv.org/abs/2209.04589v1 ) ライセンス: Link先を確認 | Xi Wang, Wenjie Wang, Fuli Feng, Wenge Rong and Chuantao Yin | (参考訳) レコメンダシステムは通常、クリックやポストクリック(likeやlikeなど)など、さまざまなユーザーの行動からユーザーの興味を学習する。
しかし、これらの行動は必然的に人気バイアスを示し、不公平な問題を引き起こします。
1) 類似品質の品目については、より人気のある品目が露出しやすくなり、
2) 人気度が低い人気商品の方が露出が大きくなる可能性がある。
人気バイアスを緩和する既存の作業は、バイアスを盲目的に排除し、通常アイテムの品質の影響を無視する。
異なるユーザ行動(例えば変換率)の関係は、実際にはアイテムの品質を反映している、と我々は主張する。
そこで,不公平な問題に対処するために,複数のユーザの行動を考慮し,人気バイアスを軽減することを提案する。
本研究では,複数行動推薦におけるインタラクション生成手順の背後にある因果関係について検討する。
特に、私たちはこう発見しています。
1) アイテムの人気度は,露出したアイテムとクリック後のインタラクションの結合であり,最初の不公平性につながる。
2) 隠れた共同設立者(例えば、商品生産者の評判)は、商品の人気と品質の両方に影響を与え、第二の不公平をもたらす。
これらの問題点を解消するため,共同設立者によるバックドア経路の抑制にバックドア調整を利用する因果効果を推定する因果枠組みを提案する。
推論段階では、人気のネガティブな効果を排除し、品質のよい効果を推薦に活用する。
2つの実世界のデータセット実験により,提案手法の有効性が検証された。 Recommender systems usually learn user interests from various user behaviors, including clicks and post-click behaviors (e.g., like and favorite). However, these behaviors inevitably exhibit popularity bias, leading to some unfairness issues: 1) for items with similar quality, more popular ones get more exposure; and 2) even worse the popular items with lower popularity might receive more exposure. Existing work on mitigating popularity bias blindly eliminates the bias and usually ignores the effect of item quality. We argue that the relationships between different user behaviors (e.g., conversion rate) actually reflect the item quality. Therefore, to handle the unfairness issues, we propose to mitigate the popularity bias by considering multiple user behaviors. In this work, we examine causal relationships behind the interaction generation procedure in multi-behavior recommendation. Specifically, we find that: 1) item popularity is a confounder between the exposed items and users' post-click interactions, leading to the first unfairness; and 2) some hidden confounders (e.g., the reputation of item producers) affect both item popularity and quality, resulting in the second unfairness. To alleviate these confounding issues, we propose a causal framework to estimate the causal effect, which leverages backdoor adjustment to block the backdoor paths caused by the confounders. In the inference stage, we remove the negative effect of popularity and utilize the good effect of quality for recommendation. Experiments on two real-world datasets validate the effectiveness of our proposed framework, which enhances fairness without sacrificing recommendation accuracy. | 翻訳日:2022-09-13 13:43:53 公開日:2022-09-10 |
# 大規模医療システムデータのオントロギング: 翻訳発見を現実にする Ontologizing Health Systems Data at Scale: Making Translational Discovery a Reality ( http://arxiv.org/abs/2209.04732v1 ) ライセンス: Link先を確認 | Tiffany J. Callahan, Adrianne L. Stefanski, Jordan M. Wyrwa, Chenjie Zeng, Anna Ostropolets, Juan M. Banda, William A. Baumgartner Jr., Richard D. Boyce, Elena Casiraghi, Ben D. Coleman, Janine H. Collins, Sara J. Deakyne-Davies, James A. Feinstein, Melissa A. Haendel, Asiyah Y. Lin, Blake Martin, Nicolas A. Matentzoglu, Daniella Meeker, Justin Reese, Jessica Sinclair, Sanya B. Taneja, Katy E. Trinkley, Nicole A. Vasilevsky, Andrew Williams, Xingman A. Zhang, Peter N. Robinson, Patrick Ryan, George Hripcsak, Tellen D. Bennett, Lawrence E. Hunter, Michael G. Kahn | (参考訳) 共通データモデルは、電子健康記録(EHR)データを標準化する多くの課題を解決するが、深い表現型化に必要なリソースを意味的に統合することはできない。
Open Biological and Biomedical Ontology (OBO) Foundry Ontologyは、生物学的知識の意味的に計算可能な表現を提供し、様々な生物医学データの統合を可能にする。
しかし、EHRデータをOBO Foundryオントロジにマッピングするには、かなりの手作業によるキュレーションとドメインの専門知識が必要です。
本稿では,観察的医療成果パートナーシップ(omop)標準語彙をobo foundryオントロジーにマッピングする枠組みを提案する。
この枠組みを用いて,92,367条件,8,615薬物成分,10,673測定結果のマッピングを行った。
マッピングの精度はドメインの専門家によって検証され、24の病院で調査した結果、99%の条件と薬物成分、68%の測定結果が得られた。
最後に,omop2oboマッピングは,遺伝子検査の恩恵を受ける未診断の希少疾患患者を体系的に同定するのに役立つことを実証する。 Common data models solve many challenges of standardizing electronic health record (EHR) data, but are unable to semantically integrate the resources needed for deep phenotyping. Open Biological and Biomedical Ontology (OBO) Foundry ontologies provide semantically computable representations of biological knowledge and enable the integration of a variety of biomedical data. However, mapping EHR data to OBO Foundry ontologies requires significant manual curation and domain expertise. We introduce a framework for mapping Observational Medical Outcomes Partnership (OMOP) standard vocabularies to OBO Foundry ontologies. Using this framework, we produced mappings for 92,367 conditions, 8,615 drug ingredients, and 10,673 measurement results. Mapping accuracy was verified by domain experts and when examined across 24 hospitals, the mappings covered 99% of conditions and drug ingredients and 68% of measurements. Finally, we demonstrate that OMOP2OBO mappings can aid in the systematic identification of undiagnosed rare disease patients who might benefit from genetic testing. | 翻訳日:2022-09-13 13:43:31 公開日:2022-09-10 |
# 勾配降下時間差差分学習 Gradient Descent Temporal Difference-difference Learning ( http://arxiv.org/abs/2209.04624v1 ) ライセンス: Link先を確認 | Rong J.B. Zhu and James M. Murray | (参考訳) 行動方針が目標方針と異なり、学習経験を得るために用いられるオフポリシーアルゴリズムは、強化学習において非常に実用的な価値を持つことが証明されている。
しかし、線形値関数近似のような単純な凸問題であっても、これらのアルゴリズムは安定であることは保証されない。
これを解決するために、このような場合において確実に収束する代替アルゴリズムが導入され、最もよく知られているのは勾配降下時間差(GTD)学習である。
しかし、このアルゴリズムや他のアルゴリズムは、従来の時間差学習よりもずっとゆっくりと収束する傾向がある。
本稿では,GTDアルゴリズムであるGTD2の改良を目的とした勾配勾配時間差分差分差分法(Gradient-DD)学習を提案する。
このアルゴリズムを線形値関数近似の枠組みで検討し、確率近似の理論を適用してその収束を理論的に証明する。
%でGTD2よりも改善した。
ランダムウォークタスク,ボイアンチェーンタスク,Bairdのオフ政治対策を実証的に検討した結果,GTD2よりも大幅に改善され,場合によっては従来のTD学習よりも性能が向上した。 Off-policy algorithms, in which a behavior policy differs from the target policy and is used to gain experience for learning, have proven to be of great practical value in reinforcement learning. However, even for simple convex problems such as linear value function approximation, these algorithms are not guaranteed to be stable. To address this, alternative algorithms that are provably convergent in such cases have been introduced, the most well known being gradient descent temporal difference (GTD) learning. This algorithm and others like it, however, tend to converge much more slowly than conventional temporal difference learning. In this paper we propose gradient descent temporal difference-difference (Gradient-DD) learning in order to improve GTD2, a GTD algorithm, by introducing second-order differences in successive parameter updates. We investigate this algorithm in the framework of linear value function approximation, theoretically proving its convergence by applying the theory of stochastic approximation. %analytically showing its improvement over GTD2. Studying the model empirically on the random walk task, the Boyan-chain task, and the Baird's off-policy counterexample, we find substantial improvement over GTD2 and, in several cases, better performance even than conventional TD learning. | 翻訳日:2022-09-13 13:39:39 公開日:2022-09-10 |
# 抗体設計のための構造化q-learning Structured Q-learning For Antibody Design ( http://arxiv.org/abs/2209.04698v1 ) ライセンス: Link先を確認 | Alexander I. Cowen-Rivers, Philip John Gorinski, Aivar Sootla, Asif Khan, Liu Furui, Jun Wang, Jan Peters, Haitham Bou Ammar | (参考訳) 組み合わせ構造を最適化することは、生命科学で遭遇した多くの実世界の問題の中核である。
例えば、抗体設計に関わる重要なステップの1つは、病原体との結合を改善するタンパク質配列内のアミノ酸の配列を見つけることである。
抗体の組合せ最適化は、非常に大きな探索空間と非線形目的のために難しい。
タンパク質の配列長が11である中性抗体設計問題においても,2.05×10^14以上の構造を探索することに直面している。
Q-learningのような従来の強化学習アルゴリズムを組合せ最適化に適用すると、性能は低下する。
組合せ最適化の事前構造を組み込んだQラーニングの拡張である構造化Qラーニング(SQL)を提案する。
分子ドッキングシミュレータを用いて、sqlは高い結合エネルギー配列を発見し、sars-covの抗体設計を含む8つの挑戦的な抗体設計タスクのベースラインに対して好適に作用することを示す。 Optimizing combinatorial structures is core to many real-world problems, such as those encountered in life sciences. For example, one of the crucial steps involved in antibody design is to find an arrangement of amino acids in a protein sequence that improves its binding with a pathogen. Combinatorial optimization of antibodies is difficult due to extremely large search spaces and non-linear objectives. Even for modest antibody design problems, where proteins have a sequence length of eleven, we are faced with searching over 2.05 x 10^14 structures. Applying traditional Reinforcement Learning algorithms such as Q-learning to combinatorial optimization results in poor performance. We propose Structured Q-learning (SQL), an extension of Q-learning that incorporates structural priors for combinatorial optimization. Using a molecular docking simulator, we demonstrate that SQL finds high binding energy sequences and performs favourably against baselines on eight challenging antibody design tasks, including designing antibodies for SARS-COV. | 翻訳日:2022-09-13 13:39:16 公開日:2022-09-10 |
# 小児上半身運動機能評価のための形状解析 Shape Analysis for Pediatric Upper Body Motor Function Assessment ( http://arxiv.org/abs/2209.04710v1 ) ライセンス: Link先を確認 | Shashwat Kumar, Robert Gutierez, Debajyoti Datta, Sarah Tolman, Allison McCrady, Silvia Blemker, Rebecca J. Scharf, Laura Barnes | (参考訳) 脊髄筋萎縮症(SMA)やデュシェンヌ筋ジストロフィー(DMD)などの神経筋疾患は進行性筋変性と運動機能の喪失を引き起こす。
従来の上肢運動機能評価は、患者の運動を定量的に測定しないため、漸進的な変化の進行を追跡することが困難である。
神経筋疾患児の運動機能の評価は、実験中に緊張したり興奮したりすることがあるか、単に正確な指示に従うには若すぎるため、特に難しい。
これらの課題は、評価された運動品質に影響を与えるアームカールの異なる部分の実行を遅くまたは速くする(位相可変性)など、相反する要因に変換される。
本稿では,曲線登録と形状解析を用いて,平均基準形状を抽出しながら時間的に軌道を整列する。
この平均形状からの距離は、運動の質を評価するために使用される。
提案指標は, 相変性などの要因の相違に不変であり, 臨床的に有意な知見がいくつか示唆された。
第一に、コントロールのための機能スコアと患者集団の間に統計的に有意な差がある(p$=0.0213$\le$0.05)。
次に、患者のコホート中の複数の患者は、健康なコホートと同等の動作を行うことができ、その逆も可能である。
我々の測定値はウェアラブルに基づいて計算され、ブルックのスコア(p$=0.00063$\le$0.05)およびダイナモメトリーに基づく運動機能評価((p$=$0.0006$\le$0.05)と関連している。
これらの結果は日常生活におけるユビキタスな運動品質評価への期待を示す。 Neuromuscular disorders, such as Spinal Muscular Atrophy (SMA) and Duchenne Muscular Dystrophy (DMD), cause progressive muscular degeneration and loss of motor function for 1 in 6,000 children. Traditional upper limb motor function assessments do not quantitatively measure patient-performed motions, which makes it difficult to track progress for incremental changes. Assessing motor function in children with neuromuscular disorders is particularly challenging because they can be nervous or excited during experiments, or simply be too young to follow precise instructions. These challenges translate to confounding factors such as performing different parts of the arm curl slower or faster (phase variability) which affects the assessed motion quality. This paper uses curve registration and shape analysis to temporally align trajectories while simultaneously extracting a mean reference shape. Distances from this mean shape are used to assess the quality of motion. The proposed metric is invariant to confounding factors, such as phase variability, while suggesting several clinically relevant insights. First, there are statistically significant differences between functional scores for the control and patient populations (p$=$0.0213$\le$0.05). Next, several patients in the patient cohort are able to perform motion on par with the healthy cohort and vice versa. Our metric, which is computed based on wearables, is related to the Brooke's score ((p$=$0.00063$\le$0.05)), as well as motor function assessments based on dynamometry ((p$=$0.0006$\le$0.05)). These results show promise towards ubiquitous motion quality assessment in daily life. | 翻訳日:2022-09-13 13:39:00 公開日:2022-09-10 |
# 新型コロナウイルス関連健康政策のための逆学習型スタンス分類器 Adversarial Learning-based Stance Classifier for COVID-19-related Health Policies ( http://arxiv.org/abs/2209.04631v1 ) ライセンス: Link先を確認 | eng Xie, Zhong Zhang, Xuechen Zhao, Jiaying Zou, Bin Zhou, Yusong Tan | (参考訳) 新型コロナウイルス(COVID-19)のパンデミックは世界中の人々に不測の損失をもたらしている。
感染拡大を封じ込め、さらに危機を緩和するため、様々な健康政策(在宅勤務の指示など)が発行され、ユーザーがソーシャルメディア上で態度を共有するようになると熱い議論が巻き起こった。
本稿では、パンデミックに対するスタンス検出(クロスターゲット、ゼロショット設定)のより現実的なシナリオを考察し、新型コロナウイルス関連健康政策に対する公衆の態度を自動的に識別する対人学習に基づくスタンス分類器を提案する。
具体的には、モデルが大量のラベル付きデータをトレーニングし、ソーストピックから伝達可能な知識をキャプチャして、スパースラベル付きデータによる新興健康政策への一般化を可能にする逆学習を採用する。
一方、GeoEncoderは、各領域で指定された観測されていないコンテキスト要素を学習し、それを非テキスト情報として表現し、モデルの深い理解を高めるモデルである。
新型コロナウイルス関連政策のスタンス検出タスクにおける幅広い基準線の性能評価を行い,提案手法が目標とゼロショットの両方で最先端の性能を達成することを示す実験結果を得た。 The ongoing COVID-19 pandemic has caused immeasurable losses for people worldwide. To contain the spread of virus and further alleviate the crisis, various health policies (e.g., stay-at-home orders) have been issued which spark heat discussion as users turn to share their attitudes on social media. In this paper, we consider a more realistic scenario on stance detection (i.e., cross-target and zero-shot settings) for the pandemic and propose an adversarial learning-based stance classifier to automatically identify the public attitudes toward COVID-19-related health policies. Specifically, we adopt adversarial learning which allows the model to train on a large amount of labeled data and capture transferable knowledge from source topics, so as to enable generalize to the emerging health policy with sparse labeled data. Meanwhile, a GeoEncoder is designed which encourages model to learn unobserved contextual factors specified by each region and represents them as non-text information to enhance model's deeper understanding. We evaluate the performance of a broad range of baselines in stance detection task for COVID-19-related policies, and experimental results show that our proposed method achieves state-of-the-art performance in both cross-target and zero-shot settings. | 翻訳日:2022-09-13 13:32:59 公開日:2022-09-10 |
# インド・ヨーロッパ諸語における部分拡散的意味進化 Subdiffusive semantic evolution in Indo-European languages ( http://arxiv.org/abs/2209.04701v1 ) ライセンス: Link先を確認 | Bogd\'an Asztalos, Gergely Palla, D\'aniel Cz\'egel | (参考訳) 言葉はどのように意味を変えるのか?
意味進化は、言語的、社会的、技術的要因を含む様々な異なる要因によって駆動されるが、インド・ヨーロッパの主要な5つの言語に普遍的に保持する法則が1つあることが分かる。
基礎となる対称性を制御したダイアクロニックな分布セマンティック埋め込みの自動パイプラインを用いて、不規則な拡散指数 $\alpha = 0.45\pm 0.05$ の空間において、単語が確率的軌跡に従うことを示す。
ランダム化法は, 意味変化方向における時間的相関の保存が, 強い拡散行動の回復に必要であることを示しているが, 変化サイズの相関も重要な役割を果たす。
さらに,データ分析や解釈において,個々の単語トラジェクトリの最適指数を平均化したり,アンサンブル平均の変位を調整したりすることで,強拡散は頑健な現象であることを示す。 How do words change their meaning? Although semantic evolution is driven by a variety of distinct factors, including linguistic, societal, and technological ones, we find that there is one law that holds universally across five major Indo-European languages: that semantic evolution is strongly subdiffusive. Using an automated pipeline of diachronic distributional semantic embedding that controls for underlying symmetries, we show that words follow stochastic trajectories in meaning space with an anomalous diffusion exponent $\alpha= 0.45\pm 0.05$ across languages, in contrast with diffusing particles that follow $\alpha=1$. Randomization methods indicate that preserving temporal correlations in semantic change directions is necessary to recover strongly subdiffusive behavior; however, correlations in change sizes play an important role too. We furthermore show that strong subdiffusion is a robust phenomenon under a wide variety of choices in data analysis and interpretation, such as the choice of fitting an ensemble average of displacements or averaging best-fit exponents of individual word trajectories. | 翻訳日:2022-09-13 13:32:35 公開日:2022-09-10 |
# 時系列モデリングと異常検出のためのディープベースラインネットワーク Deep Baseline Network for Time Series Modeling and Anomaly Detection ( http://arxiv.org/abs/2209.04561v1 ) ライセンス: Link先を確認 | Cheng Ge, Xi Chen, Ming Wang, Jin Wang | (参考訳) 近年、ディープラーニングは時系列に応用が増えている。
金融、モノのインターネット、データセンターの運用など、時系列の異常検出シナリオでは、時系列は通常、さまざまな外部要因に応じて非常に柔軟なベースラインを表示する。
異常はベースラインから遠く離れて横たわって現れます。
しかしながら、ベースラインシフト、ラベルの欠如、ノイズ干渉、ストリーミングデータのリアルタイム検出、結果解釈可能性など、いくつかの課題により、検出は必ずしも容易ではない。
本稿では,時系列からベースラインを適切に抽出する新しい深層アーキテクチャ,すなわち深層ベースラインネットワーク(dbln)を開発した。
このディープネットワークを用いることで、ベースラインの位置を容易に特定し、信頼性と解釈可能な異常検出結果を提供することができる。
総合的および公的な実世界のデータセットにおける経験的評価から, 純粋に教師なしのアルゴリズムは, 最先端の手法に比べて優れた性能を達成でき, 実用的応用が可能であることが示された。 Deep learning has seen increasing applications in time series in recent years. For time series anomaly detection scenarios, such as in finance, Internet of Things, data center operations, etc., time series usually show very flexible baselines depending on various external factors. Anomalies unveil themselves by lying far away from the baseline. However, the detection is not always easy due to some challenges including baseline shifting, lacking of labels, noise interference, real time detection in streaming data, result interpretability, etc. In this paper, we develop a novel deep architecture to properly extract the baseline from time series, namely Deep Baseline Network (DBLN). By using this deep network, we can easily locate the baseline position and then provide reliable and interpretable anomaly detection result. Empirical evaluation on both synthetic and public real-world datasets shows that our purely unsupervised algorithm achieves superior performance compared with state-of-art methods and has good practical applications. | 翻訳日:2022-09-13 13:31:24 公開日:2022-09-10 |
# 拡張特徴空間に基づく自動メラノーマ検出システム Extended Feature Space-Based Automatic Melanoma Detection System ( http://arxiv.org/abs/2209.04588v1 ) ライセンス: Link先を確認 | Shakti Kumar, Anuj Kumar | (参考訳) メラノーマは皮膚がんの最も致命的な形態である。
メラノーマの制御不能な増殖はメラノーマを引き起こす。
メラノーマはここ数十年で大きく成長しています。
近年,画像処理技術による黒色腫の検出が主流となっている。
自動メラノーマ検出システム(AMDS)は、感染した皮膚領域の画像を入力として受け入れることで、画像処理技術に基づいてメラノーマを検出する。
単一の病変像は複数の特徴の源である。
したがって,AMDSの精度を高めるためには,病変の画像から適切な特徴を選択することが重要である。
メラノーマの検出では、抽出された全ての特徴は重要ではない。
抽出された特徴のいくつかは複雑であり、より多くの計算タスクを必要とし、AMDSの分類精度に影響を与える。
amdの特徴抽出相は, 個々の特徴抽出法および拡張特徴抽出法を用いてamdの挙動を調べることが重要である。
拡張特徴ベクトル空間の計算のための新しいアルゴリズムExtFvAMDSを提案する。
比較研究で提案された6つのモデルでは、Med-Node Dataset上のEnsemble Bagged Tree分類器を用いたメラノーマの自動検出のためのHSV特徴ベクトル空間が99%のAUC、95.30%の精度、94.23%の感度、96.96%の特異性を示した。 Melanoma is the deadliest form of skin cancer. Uncontrollable growth of melanocytes leads to melanoma. Melanoma has been growing wildly in the last few decades. In recent years, the detection of melanoma using image processing techniques has become a dominant research field. The Automatic Melanoma Detection System (AMDS) helps to detect melanoma based on image processing techniques by accepting infected skin area images as input. A single lesion image is a source of multiple features. Therefore, It is crucial to select the appropriate features from the image of the lesion in order to increase the accuracy of AMDS. For melanoma detection, all extracted features are not important. Some of the extracted features are complex and require more computation tasks, which impacts the classification accuracy of AMDS. The feature extraction phase of AMDS exhibits more variability, therefore it is important to study the behaviour of AMDS using individual and extended feature extraction approaches. A novel algorithm ExtFvAMDS is proposed for the calculation of Extended Feature Vector Space. The six models proposed in the comparative study revealed that the HSV feature vector space for automatic detection of melanoma using Ensemble Bagged Tree classifier on Med-Node Dataset provided 99% AUC, 95.30% accuracy, 94.23% sensitivity, and 96.96% specificity. | 翻訳日:2022-09-13 13:31:06 公開日:2022-09-10 |
# 最適輸送を用いた標的領域の外部特徴に対する教師なし領域適応 Unsupervised Domain Adaptation for Extra Features in the Target Domain Using Optimal Transport ( http://arxiv.org/abs/2209.04594v1 ) ライセンス: Link先を確認 | Toshimitsu Aritake and Hideitsu Hino | (参考訳) ドメイン適応は、ソースドメインから取得したラベル付きインスタンスの知識をターゲットドメインに転送し、ドメイン間のギャップを埋めることを目的としています。
ほとんどの領域適応法は、ソースとターゲットドメインは同じ次元を持つと仮定する。
対象ドメインから取得したテストデータにはラベル情報がない場合,各ドメインで特徴数が異なる場合に適用可能な手法がほとんど研究されていない。
本稿では、両領域に共通する特徴と、対象領域に余分な(新たな)特徴が観察されることを仮定し、対象領域の次元性はソース領域の次元よりも高いと仮定する。
共通特徴の均一性を活用するために、これらのソースとターゲットドメイン間の適応は最適な輸送(OT)問題として定式化される。
また、提案するotに基づく手法の目標領域における学習バウンドを導出する。
提案アルゴリズムはシミュレーションデータと実世界データの両方を用いて検証される。 Domain adaptation aims to transfer knowledge of labeled instances obtained from a source domain to a target domain to fill the gap between the domains. Most domain adaptation methods assume that the source and target domains have the same dimensionality. Methods that are applicable when the number of features is different in each domain have rarely been studied, especially when no label information is given for the test data obtained from the target domain. In this paper, it is assumed that common features exist in both domains and that extra (new additional) features are observed in the target domain; hence, the dimensionality of the target domain is higher than that of the source domain. To leverage the homogeneity of the common features, the adaptation between these source and target domains is formulated as an optimal transport (OT) problem. In addition, a learning bound in the target domain for the proposed OT-based method is derived. The proposed algorithm is validated using both simulated and real-world data. | 翻訳日:2022-09-13 13:30:43 公開日:2022-09-10 |
# 複数の果実花種のパノプティックセグメンテーションのための自己教師型学習 Self-supervised Learning for Panoptic Segmentation of Multiple Fruit Flower Species ( http://arxiv.org/abs/2209.04618v1 ) ライセンス: Link先を確認 | Abubakar Siddique, Amy Tabb, Henry Medeiros | (参考訳) 手動で生成されたラベルを使ってトレーニングされた畳み込みニューラルネットワークは、一般的にセマンティックまたはインスタンスセグメンテーションに使用される。
精密農業において、自動花検出法は、花の外観やデータ取得条件が異なるため、一貫して機能しない教師付きモデルや後処理技術を用いる。
自動生成擬似ラベルを用いて,異なる花種に対するセグメンテーションモデルの感度を高める自己教師型学習戦略を提案する。
モデル予測の精度を向上させるために,データ拡張と改良手法を採用している。
拡張された意味予測はパンオプティカルな擬似ラベルに変換され、反復的にマルチタスクモデルを訓練する。
自己教師付きモデル予測は、既存の後処理アプローチによって洗練され、精度がさらに向上する。
多種果樹花データセットの評価により,本手法は計算コストのかかる後処理ステップを伴わずに最先端モデルを上回る性能を示し,花検出のための新たなベースラインを提供する。 Convolutional neural networks trained using manually generated labels are commonly used for semantic or instance segmentation. In precision agriculture, automated flower detection methods use supervised models and post-processing techniques that may not perform consistently as the appearance of the flowers and the data acquisition conditions vary. We propose a self-supervised learning strategy to enhance the sensitivity of segmentation models to different flower species using automatically generated pseudo-labels. We employ a data augmentation and refinement approach to improve the accuracy of the model predictions. The augmented semantic predictions are then converted to panoptic pseudo-labels to iteratively train a multi-task model. The self-supervised model predictions can be refined with existing post-processing approaches to further improve their accuracy. An evaluation on a multi-species fruit tree flower dataset demonstrates that our method outperforms state-of-the-art models without computationally expensive post-processing steps, providing a new baseline for flower detection applications. | 翻訳日:2022-09-13 13:16:13 公開日:2022-09-10 |
# ガラス検出のための大規模コンテキスト特徴学習 Large-Field Contextual Feature Learning for Glass Detection ( http://arxiv.org/abs/2209.04639v1 ) ライセンス: Link先を確認 | Haiyang Mei, Xin Yang, Letian Yu, Qiang Zhang, Xiaopeng Wei, Rynson W.H. Lau | (参考訳) ガラスは私たちの日常生活でとても一般的です。
既存のコンピュータビジョンシステムはそれを無視し、例えばロボットがガラス壁に衝突するなど、深刻な結果をもたらす可能性がある。
しかし、ガラスの存在を感知することは容易ではない。
重要な課題は、任意のオブジェクト/シーンがガラスの後ろに現れることだ。
本稿では,単一のrgb画像からガラス表面を検出するための重要な問題を提案する。
この問題に対処するため,第1次大規模ガラス検出データセット(GDD)を構築し,GDNet-Bと呼ばれる新しいガラス検出ネットワークを提案する。
GDNet-BはGDDテストセット内外の画像に対して満足なガラス検出結果が得られることを示した。
ミラー分割や有能物体検出など他の視覚タスクに適用することにより,提案したGDNet-Bの有効性と一般化能力をさらに検証する。
最後に,ガラス検出の応用の可能性を示し,今後の研究の方向性について論じる。 Glass is very common in our daily life. Existing computer vision systems neglect it and thus may have severe consequences, e.g., a robot may crash into a glass wall. However, sensing the presence of glass is not straightforward. The key challenge is that arbitrary objects/scenes can appear behind the glass. In this paper, we propose an important problem of detecting glass surfaces from a single RGB image. To address this problem, we construct the first large-scale glass detection dataset (GDD) and propose a novel glass detection network, called GDNet-B, which explores abundant contextual cues in a large field-of-view via a novel large-field contextual feature integration (LCFI) module and integrates both high-level and low-level boundary features with a boundary feature enhancement (BFE) module. Extensive experiments demonstrate that our GDNet-B achieves satisfying glass detection results on the images within and beyond the GDD testing set. We further validate the effectiveness and generalization capability of our proposed GDNet-B by applying it to other vision tasks, including mirror segmentation and salient object detection. Finally, we show the potential applications of glass detection and discuss possible future research directions. | 翻訳日:2022-09-13 13:15:55 公開日:2022-09-10 |
# LSDNet:リアルタイムラインセグメント検出のためのLSDアルゴリズムのトレーニング可能な修正 LSDNet: Trainable Modification of LSD Algorithm for Real-Time Line Segment Detection ( http://arxiv.org/abs/2209.04642v1 ) ライセンス: Link先を確認 | Lev Teplyakov, Leonid Erlygin, Evgeny Shvets | (参考訳) 今日現在、ラインセグメント検出(LSD)における最良の精度は、畳み込みニューラルネットワーク(CNN)に基づくアルゴリズムによって達成されている。
残念ながら、これらの方法は深くて重いネットワークを使用し、従来のモデルベースの検出器よりも遅い。
本稿では,従来のLCD検出器に軽量CNNを組み込むことにより,高精度かつ高速なCNNベース検出器LSDNetを構築する。
具体的には、最初のlsdアルゴリズムの最初のステップ - 線分ヒートマップと接フィールドを生の画像勾配から構築する - を、より複雑でリッチな特徴を計算可能な軽量なcnnに置き換える。
LSDアルゴリズムの第2部は、小さな修正のみで使用される。
標準的なWireframeデータセット上のいくつかのラインセグメント検出器と比較して、提案されたLSDNetは、競争精度78 Fhの214 FPSの最高速度(CNNベースの検出器)を提供する。
最良報告精度は33FPSの83Fhであるが, 検出精度の差はアノテーションの誤りによるものであり, 実際の差は著しく低いと推測する。
一般的な線検出ベンチマーク - Wireframe と York Urban - のアノテーションにおける体系的な矛盾を指摘し、画像のサブセットを慎重に再注釈し、そのことを示す。
(i)既存の検知器は、再トレーニングせずに更新されたアノテーションの品質を改善しており、新しいアノテーションは正しい線分検出の概念とよく相関していることを示唆している。
(II)検出器と他の装置の精度の差は0.2Fhに減少し,本手法は最速である。 As of today, the best accuracy in line segment detection (LSD) is achieved by algorithms based on convolutional neural networks - CNNs. Unfortunately, these methods utilize deep, heavy networks and are slower than traditional model-based detectors. In this paper we build an accurate yet fast CNN- based detector, LSDNet, by incorporating a lightweight CNN into a classical LSD detector. Specifically, we replace the first step of the original LSD algorithm - construction of line segments heatmap and tangent field from raw image gradients - with a lightweight CNN, which is able to calculate more complex and rich features. The second part of the LSD algorithm is used with only minor modifications. Compared with several modern line segment detectors on standard Wireframe dataset, the proposed LSDNet provides the highest speed (among CNN-based detectors) of 214 FPS with a competitive accuracy of 78 Fh . Although the best-reported accuracy is 83 Fh at 33 FPS, we speculate that the observed accuracy gap is caused by errors in annotations and the actual gap is significantly lower. We point out systematic inconsistencies in the annotations of popular line detection benchmarks - Wireframe and York Urban, carefully reannotate a subset of images and show that (i) existing detectors have improved quality on updated annotations without retraining, suggesting that new annotations correlate better with the notion of correct line segment detection; (ii) the gap between accuracies of our detector and others diminishes to negligible 0.2 Fh , with our method being the fastest. | 翻訳日:2022-09-13 13:15:35 公開日:2022-09-10 |
# IR-LPR:イランの大規模ナンバープレート認識データセット IR-LPR: Large Scale of Iranian License Plate Recognition Dataset ( http://arxiv.org/abs/2209.04680v1 ) ライセンス: Link先を確認 | Mahdi Rahmani, Melika Sabaghian, Seyyede Mahila Moghadami, Mohammad Mohsen Talaie, Mahdi Naghibi, Mohammad Ali Keyvanrad | (参考訳) オブジェクト検出は常に実用的です。
私たちの世界にはとても多くのことがあり、その認識は周囲の自動知識を増やすだけでなく、新しいビジネスを始めることに興味のある人たちにも利益をもたらすことができます。
これらの魅力的なオブジェクトの1つは、ライセンスプレート(LP)である。
ライセンスプレート検出が持つセキュリティ利用に加えて、クリエイティブなビジネスの創造にも利用できる。
ディープラーニングモデルに基づくオブジェクト検出手法の開発により、適切な包括的なデータセットが2倍重要になる。
しかし、ライセンスプレートデータセットの商業利用が頻繁に行われているため、イランだけでなく、世界中にも限られたデータセットが存在する。
イラン最大のナンバープレート検出用データセットは1,466枚である。
また、ライセンスプレートの文字を認識するためのイラン最大のデータセットには5000の画像がある。
我々は,20,967台の車両画像と,ライセンスプレート全体とその文字のすべての検出アノテーションを含む完全なデータセットを作成し,様々な目的のために有用である。
また、文字認識用ナンバープレート画像の総数は27,745画像である。 Object detection has always been practical. There are so many things in our world that recognizing them can not only increase our automatic knowledge of the surroundings, but can also be lucrative for those interested in starting a new business. One of these attractive objects is the license plate (LP). In addition to the security uses that license plate detection can have, it can also be used to create creative businesses. With the development of object detection methods based on deep learning models, an appropriate and comprehensive dataset becomes doubly important. But due to the frequent commercial use of license plate datasets, there are limited datasets not only in Iran but also in the world. The largest Iranian dataset for detection license plates has 1,466 images. Also, the largest Iranian dataset for recognizing the characters of a license plate has 5,000 images. We have prepared a complete dataset including 20,967 car images along with all the detection annotation of the whole license plate and its characters, which can be useful for various purposes. Also, the total number of license plate images for character recognition application is 27,745 images. | 翻訳日:2022-09-13 13:15:11 公開日:2022-09-10 |
# Argument 構築のための意味表法 A Semantic Tableau Method for Argument Construction ( http://arxiv.org/abs/2209.04759v1 ) ライセンス: Link先を確認 | Nico Roos | (参考訳) 議論の導出を可能にする議論表auと呼ばれる意味表au法が提案されている。
まず、標準的な命題論理と述語論理の議論の導出について述べる。
次に、デファシブルルールによる推論を可能にする拡張を示す。
最後に、議論表を用いた事例による推論について述べる。 A semantic tableau method, called an argumentation tableau, that enables the derivation of arguments, is proposed. First, the derivation of arguments for standard propositional and predicate logic is addressed. Next, an extension that enables reasoning with defeasible rules is presented. Finally, reasoning by cases using an argumentation tableau is discussed. | 翻訳日:2022-09-13 13:09:03 公開日:2022-09-10 |
# はい、DLGM!
危険分類のための新しい階層モデル Yes, DLGM! A novel hierarchical model for hazard classification ( http://arxiv.org/abs/2209.04576v1 ) ライセンス: Link先を確認 | Zhenhua Wang, Ming Ren, Dong Gao, Bin Wang | (参考訳) 危険はテキスト情報としてHAZOPによって暴露され、その分類を研究することは、安全早期警戒、意思決定支援、政策評価等に寄与する産業情報学の発展に非常に重要である。
しかし、現在この重要な分野の研究は行われていない。
本稿では,リスク分類のためのディープラーニングによるDLGMと呼ばれる新しいモデルを提案する。
具体的には、まずBERTを利用してハザードをベクトル化し、それを時系列(HTS)の一種として扱う。
次に, モデル化のためのグレーモデルFSGM(1, 1)を構築し, 構造パラメータの意味でのグレイガイダンスを得る。
最後に、階層型核融合ニューラルネットワーク(HFFNN)を設計し、3つのテーマからHTSをグレーガイダンス(HTSGG)で調べ、HFFNNは4種類のモジュールを持つ階層構造である。
18の産業プロセスを応用事例として、一連の実験を開始します。
実験の結果,DLGMはハザード分類に有望な適性を示し,FSGM(1, 1)とHFFNNが有効であることが確認された。
我々の研究が産業安全の日々の実践に付加価値と支援をもたらすことを願っている。 Hazards can be exposed by HAZOP as text information, and studying their classification is of great significance to the development of industrial informatics, which is conducive to safety early warning, decision support, policy evaluation, etc. However, there is no research on this important field at present. In this paper, we propose a novel model termed DLGM via deep learning for hazard classification. Specifically, first, we leverage BERT to vectorize the hazard and treat it as a type of time series (HTS). Secondly, we build a grey model FSGM(1, 1) to model it, and get the grey guidance in the sense of the structural parameters. Finally, we design a hierarchical-feature fusion neural network (HFFNN) to investigate the HTS with grey guidance (HTSGG) from three themes, where, HFFNN is a hierarchical structure with four types of modules: two feature encoders, a gating mechanism, and a deepening mechanism. We take 18 industrial processes as application cases and launch a series of experiments. The experimental results prove that DLGM has promising aptitudes for hazard classification and that FSGM(1, 1) and HFFNN are effective. We hope our research can contribute added value and support to the daily practice in industrial safety. | 翻訳日:2022-09-13 12:57:15 公開日:2022-09-10 |
# OPAL:タスク指向対話のためのオントロジーを考慮した事前学習言語モデル OPAL: Ontology-Aware Pretrained Language Model for End-to-End Task-Oriented Dialogue ( http://arxiv.org/abs/2209.04595v1 ) ライセンス: Link先を確認 | Zhi Chen, Yuncong Liu, Lu Chen, Su Zhu, Mengyue Wu and Kai Yu | (参考訳) 本稿では、エンドツーエンドタスク指向対話(TOD)のためのオントロジー対応事前学習言語モデル(OPAL)を提案する。
チャット型対話モデルとは異なり、タスク指向対話モデルは対話状態トラッカー(DST)と応答生成器(RG)の2つのタスク固有モジュールを満たす。
対話状態はドメインスロット値トリプルで構成され、ドメイン関連データベースを検索するためのユーザの制約と見なされる。
注釈付き構造化対話状態を有する大規模タスク指向対話データは、通常アクセス不能である。
タスク指向対話のための事前訓練言語モデルの開発を防止する。
本稿では,2つの事前学習フェーズからなる簡易かつ効果的な事前学習手法を提案する。
第1フェーズは、情報抽出ツールによりテキストの構造化情報を抽出した大規模文脈テキストデータを事前学習することである。
事前学習手法と下流タスクのギャップを埋めるために,DSTとRGをそれぞれシミュレートしたオントロジー的な3重回復と次テキスト生成という2つの事前学習タスクを設計する。
第2フェーズは、事前訓練されたモデルをtodデータで微調整することである。
提案手法は,CamRest676およびMultiWOZベンチマークのTODデータなしでも,エキサイティングな高速化と競争性能が得られることを示す。 This paper presents an ontology-aware pretrained language model (OPAL) for end-to-end task-oriented dialogue (TOD). Unlike chit-chat dialogue models, task-oriented dialogue models fulfill at least two task-specific modules: dialogue state tracker (DST) and response generator (RG). The dialogue state consists of the domain-slot-value triples, which are regarded as the user's constraints to search the domain-related databases. The large-scale task-oriented dialogue data with the annotated structured dialogue state usually are inaccessible. It prevents the development of the pretrained language model for the task-oriented dialogue. We propose a simple yet effective pretraining method to alleviate this problem, which consists of two pretraining phases. The first phase is to pretrain on large-scale contextual text data, where the structured information of the text is extracted by the information extracting tool. To bridge the gap between the pretraining method and downstream tasks, we design two pretraining tasks: ontology-like triple recovery and next-text generation, which simulates the DST and RG, respectively. The second phase is to fine-tune the pretrained model on the TOD data. The experimental results show that our proposed method achieves an exciting boost and get competitive performance even without any TOD data on CamRest676 and MultiWOZ benchmarks. | 翻訳日:2022-09-13 12:56:54 公開日:2022-09-10 |
# マレー列島における中国語の地域品種間差異の解析 An Analysis of the Differences Among Regional Varieties of Chinese in Malay Archipelago ( http://arxiv.org/abs/2209.04611v1 ) ライセンス: Link先を確認 | Nankai Lin, Sihui Fu, Hongyan Wu, Shengyi Jiang | (参考訳) 中国はマレー諸島の国々にある中国の共同体で顕著である。
これらの国では、中国語は現地の言語や文化に適応する過程をとっており、各国で中国語の変種が発生することになる。
本稿では,マレー列島5カ国(インドネシア,マレーシア,シンガポール,フィリピン,ブルネイ)から収集された中国語ニューステキストの量的分析を行い,語彙的・統語論的観点から,現代中国語で書かれたテキストとの差異を明らかにする。
統計の結果、これらの5カ国で使用されている中国版は、現代の中国本土版とは大きく異なることが示されている。
一方,各国で用いられている特徴語を抽出し,分類した。
これらの不一致は、中国が海外でどのように発展していくのかを反映し、現地の社会や文化が中国の発展に深く影響していることを示している。 Chinese features prominently in the Chinese communities located in the nations of Malay Archipelago. In these countries, Chinese has undergone the process of adjustment to the local languages and cultures, which leads to the occurrence of a Chinese variant in each country. In this paper, we conducted a quantitative analysis on Chinese news texts collected from five Malay Archipelago nations, namely Indonesia, Malaysia, Singapore, Philippines and Brunei, trying to figure out their differences with the texts written in modern standard Chinese from a lexical and syntactic perspective. The statistical results show that the Chinese variants used in these five nations are quite different, diverging from their modern Chinese mainland counterpart. Meanwhile, we managed to extract and classify several featured Chinese words used in each nation. All these discrepancies reflect how Chinese evolves overseas, and demonstrate the profound impact rom local societies and cultures on the development of Chinese. | 翻訳日:2022-09-13 12:56:32 公開日:2022-09-10 |
# Fact-Checked Claim 検出のためのハラスティング抽象要約法 Harnessing Abstractive Summarization for Fact-Checked Claim Detection ( http://arxiv.org/abs/2209.04612v1 ) ライセンス: Link先を確認 | Varad Bhatnagar, Diptesh Kanojia, Kameswari Chebrolu | (参考訳) ソーシャルメディアプラットフォームは反社会的要素の新たな戦場となり、誤った情報が選択の武器となっている。
ファクトチェック組織は、報道プロセスに忠実でありながら、できるだけ多くの主張を否定しようとするが、その急速な普及には対処できない。
このソリューションは、事実チェックのライフサイクルを部分的に自動化し、高い認識を必要とするタスクに人間の時間を節約することにあると信じています。
本稿では,抽象的な要約を用いたクェリを効率的に検出するワークフローを提案する。
これらのクエリは、以前ファクトチェックされたクレームのコレクションに関連する汎用検索システム上で実行される。
我々は,Twitterとそのゴールドサマリーからのノイズの多いクレームを含む抽象テキスト要約データセットをキュレートする。
検索性能は,市販の要約モデルを用いて2倍,付随するデータセット上で3倍の微調整を行うことで2倍向上することを示した。
提案手法では,Recall@5 と MRR が 35% と 0.3 であり,ベースライン値は 10% と 0.1 である。
データセット、コード、モデルは公開されています。 https://github.com/varadhbhatnagar/FC-Claim-Det/ Social media platforms have become new battlegrounds for anti-social elements, with misinformation being the weapon of choice. Fact-checking organizations try to debunk as many claims as possible while staying true to their journalistic processes but cannot cope with its rapid dissemination. We believe that the solution lies in partial automation of the fact-checking life cycle, saving human time for tasks which require high cognition. We propose a new workflow for efficiently detecting previously fact-checked claims that uses abstractive summarization to generate crisp queries. These queries can then be executed on a general-purpose retrieval system associated with a collection of previously fact-checked claims. We curate an abstractive text summarization dataset comprising noisy claims from Twitter and their gold summaries. It is shown that retrieval performance improves 2x by using popular out-of-the-box summarization models and 3x by fine-tuning them on the accompanying dataset compared to verbatim querying. Our approach achieves Recall@5 and MRR of 35% and 0.3, compared to baseline values of 10% and 0.1, respectively. Our dataset, code, and models are available publicly: https://github.com/varadhbhatnagar/FC-Claim-Det/ | 翻訳日:2022-09-13 12:56:18 公開日:2022-09-10 |
# グラデーション類似度を用いたマイトショットテキスト分類のための適応メタリーナー Adaptive Meta-learner via Gradient Similarity for Few-shot Text Classification ( http://arxiv.org/abs/2209.04702v1 ) ライセンス: Link先を確認 | Tianyi Lei, Honghui Hu, Qiaoyang Luo, Dezhong Peng, Xu Wang | (参考訳) 少数ショットのテキスト分類は、少数ショットのシナリオでテキストを分類することを目的としている。
従来の手法の多くは、タスク分布を得るために最適化に基づくメタ学習を採用していた。
しかし、少数のサンプルと複雑なモデルとの整合性の欠如や、有用なタスク特徴と役に立たないタスク特徴の区別により、これらの手法は過度に適合する問題に悩まされる。
この問題に対処するため,新しいタスクへのモデル一般化能力を改善するために,Gradient similarity (AMGS) 法による適応メタラーナを提案する。
具体的には, 提案手法は, オーバーフィッティングを2つの側面から緩和する。
(i)内ループにおける自己教師付き補助タスクによるサンプルの潜在的意味表現の獲得とモデル一般化の改善
2) 適応型メタラーナーの勾配類似性を利用して, ベースラーナーが外ループで得られる勾配に制約を加える。
さらに,規則化がフレームワーク全体に与える影響を体系的に分析する。
いくつかのベンチマークによる実験結果から,提案したAMGSは,最先端の最適化に基づくメタラーニング手法と比較して,テキスト分類性能を一貫して向上することが示された。 Few-shot text classification aims to classify the text under the few-shot scenario. Most of the previous methods adopt optimization-based meta learning to obtain task distribution. However, due to the neglect of matching between the few amount of samples and complicated models, as well as the distinction between useful and useless task features, these methods suffer from the overfitting issue. To address this issue, we propose a novel Adaptive Meta-learner via Gradient Similarity (AMGS) method to improve the model generalization ability to a new task. Specifically, the proposed AMGS alleviates the overfitting based on two aspects: (i) acquiring the potential semantic representation of samples and improving model generalization through the self-supervised auxiliary task in the inner loop, (ii) leveraging the adaptive meta-learner via gradient similarity to add constraints on the gradient obtained by base-learner in the outer loop. Moreover, we make a systematic analysis of the influence of regularization on the entire framework. Experimental results on several benchmarks demonstrate that the proposed AMGS consistently improves few-shot text classification performance compared with the state-of-the-art optimization-based meta-learning approaches. | 翻訳日:2022-09-13 12:55:58 公開日:2022-09-10 |
# 自動皮肉処理に関する調査 : 言語的・認知的・多元的視点 A Survey in Automatic Irony Processing: Linguistic, Cognitive, and Multi-X Perspectives ( http://arxiv.org/abs/2209.04712v1 ) ライセンス: Link先を確認 | Qingcheng Zeng, An-Ran Li | (参考訳) 皮肉は日常コミュニケーションにおけるユビキタスな表現言語である。
これまで多くの研究者が、言語学、認知科学、計算的な側面から皮肉にアプローチしてきた。
近年,自然言語処理(NLP)におけるディープニューラルネットワークの急速な発展により,自動アイロン処理の進歩が見られた。
本稿では,計算の皮肉,言語理論と認知科学からの洞察,下流のnlpタスクとのインタラクション,そして新たに提案されたマルチxの皮肉処理の観点について概観する。 Irony is a ubiquitous figurative language in daily communication. Previously, many researchers have approached irony from linguistic, cognitive science, and computational aspects. Recently, some progress have been witnessed in automatic irony processing due to the rapid development in deep neural models in natural language processing (NLP). In this paper, we will provide a comprehensive overview of computational irony, insights from linguistic theory and cognitive science, as well as its interactions with downstream NLP tasks and newly proposed multi-X irony processing perspectives. | 翻訳日:2022-09-13 12:55:42 公開日:2022-09-10 |
# クロスドメイン知識蒸留を組み込んだフェデレーション学習におけるプライバシ保護 Preserving Privacy in Federated Learning with Ensemble Cross-Domain Knowledge Distillation ( http://arxiv.org/abs/2209.04599v1 ) ライセンス: Link先を確認 | Xuan Gong, Abhishek Sharma, Srikrishna Karanam, Ziyan Wu, Terrence Chen, David Doermann, Arun Innanje | (参考訳) Federated Learning(FL)は、トレーニングデータが分散化されている間、ローカルノードが協力して中央モデルをトレーニングする機械学習パラダイムである。
既存のfl法は通常、モデルパラメータを共有するか、不均衡なデータ分散の問題に対処するために共蒸留を用いる。
しかし、通信のボトルネックに苦しむ。
さらに重要なのは、プライバシー漏洩のリスクだ。
本研究では,未ラベルのクロスドメイン公開データを用いた一発のオフライン知識蒸留を用いたFLフレームワークにおいて,プライバシ保護と通信効率の向上を図る。
完全訓練されたローカルモデルからの局所的予測の定量化とノイズアンサンブルを提案し,精度を犠牲にすることなく,より強力なプライバシ保証を実現する。
画像分類とテキスト分類タスクに関する広範囲な実験により,プライバシ保存手法が,精度と通信効率に優れるベースラインflアルゴリズムよりも優れていることを示す。 Federated Learning (FL) is a machine learning paradigm where local nodes collaboratively train a central model while the training data remains decentralized. Existing FL methods typically share model parameters or employ co-distillation to address the issue of unbalanced data distribution. However, they suffer from communication bottlenecks. More importantly, they risk privacy leakage. In this work, we develop a privacy preserving and communication efficient method in a FL framework with one-shot offline knowledge distillation using unlabeled, cross-domain public data. We propose a quantized and noisy ensemble of local predictions from completely trained local models for stronger privacy guarantees without sacrificing accuracy. Based on extensive experiments on image classification and text classification tasks, we show that our privacy-preserving method outperforms baseline FL algorithms with superior performance in both accuracy and communication efficiency. | 翻訳日:2022-09-13 12:52:48 公開日:2022-09-10 |
# コンピュータビジョンを用いた人胆道木診断のためのインタラクティブな自動化 An Interactive Automation for Human Biliary Tree Diagnosis Using Computer Vision ( http://arxiv.org/abs/2209.04646v1 ) ライセンス: Link先を確認 | Mohammad AL-Oudat, Saleh Alomari, Hazem Qattous, Mohammad Azzeh, Tariq AL-Munaizel | (参考訳) 胆道の木は肝臓と胆嚢をつなぐ管のネットワークであり、そのすぐ下の臓器である。
胆管は胆道樹の主要な管である。
胆管の拡張は、膵臓や迷走神経乳頭によってしばしば引き起こされる、石や腫瘍などの人体におけるより大きな問題の鍵となる指標である。
胆管拡張の検出は初心者や未訓練の医療従事者にとって多くの状況において困難である。
専門家でさえ、裸眼で胆管拡張を検出することができない。
本研究は胆道の初期診断にユニークな視覚モデルを提案する。
磁気共鳴画像から胆道木を分離するために、このフレームワークは異なる画像処理アプローチ(MRI)を使用した。
画像の関心領域が分割された後、主要な軸と小さな軸、胆管領域、胆道樹面積、コンパクト性、およびいくつかのテクスト的特徴(コントラスト、平均、分散、相関)を含む10の特徴を抽出するために多くの計算が行われた。
ヨルダンのアンマンにあるキング・フセイン・メディカル・センター(king hussein medical center)の画像データベースを用いて、200件のmri画像、100件の正常例、100人の拡張胆管患者について検討した。
特徴を抽出した後、患者の健康状態(正常または拡張状態)を判定するために様々な分類器が使用される。
その結果,抽出された特徴は,曲線下の精度と面積の点で,すべての分類器で良好に機能することがわかった。
本研究は,mri画像から胆道樹を分割する自動的アプローチと,文献でこれまで行われなかった胆道樹の状態と検索された特徴を科学的に関連付ける点において特異である。 The biliary tree is a network of tubes that connects the liver to the gallbladder, an organ right beneath it. The bile duct is the major tube in the biliary tree. The dilatation of a bile duct is a key indicator for more major problems in the human body, such as stones and tumors, which are frequently caused by the pancreas or the papilla of vater. The detection of bile duct dilatation can be challenging for beginner or untrained medical personnel in many circumstances. Even professionals are unable to detect bile duct dilatation with the naked eye. This research presents a unique vision-based model for biliary tree initial diagnosis. To segment the biliary tree from the Magnetic Resonance Image, the framework used different image processing approaches (MRI). After the image's region of interest was segmented, numerous calculations were performed on it to extract 10 features, including major and minor axes, bile duct area, biliary tree area, compactness, and some textural features (contrast, mean, variance and correlation). This study used a database of images from King Hussein Medical Center in Amman, Jordan, which included 200 MRI images, 100 normal cases, and 100 patients with dilated bile ducts. After the characteristics are extracted, various classifiers are used to determine the patients' condition in terms of their health (normal or dilated). The findings demonstrate that the extracted features perform well with all classifiers in terms of accuracy and area under the curve. This study is unique in that it uses an automated approach to segment the biliary tree from MRI images, as well as scientifically correlating retrieved features with biliary tree status that has never been done before in the literature. | 翻訳日:2022-09-13 12:52:33 公開日:2022-09-10 |
# 熱画像と深層学習アルゴリズムを用いたスマートシティにおける人々検出とソーシャルディスタンシングの分類 People detection and social distancing classification in smart cities for COVID-19 by using thermal images and deep learning algorithms ( http://arxiv.org/abs/2209.04704v1 ) ライセンス: Link先を確認 | Abdussalam Elhanashi, Sergio Saponara, Alessio Gagliardi | (参考訳) 新型コロナウイルスは、重症呼吸器症候群による病気である。
2019年12月に中国の武漢で発見された。
パンデミックが続く中で、一部の死者を含む感染者が感染した。
コロナウイルスは主に密接な接触中に人の間で拡散する。
そこで本研究では,温熱画像を用いたソーシャルディスタンシング分類のための人工知能システムを提案する。
YOLOv2(一度見ればわかる)を活用することで、屋内および屋外のシナリオで人を検出し、追跡するためのディープラーニング検出技術を開発した。
また、人との距離を計測・分類し、社会的距離規則が尊重されているかどうかを自動的にチェックするアルゴリズムも実装されている。
したがって、この研究は、人々がソーシャル・ディスタンシング・ルールにどう準拠しているかを評価することで、新型コロナウイルスの感染拡大を最小限にすることを目的としている。
提案手法は,人追跡,ソーシャルディスタンシング分類,体温監視のための完全なAIシステムを構築するために,サーマルカメラで取得した画像に適用される。
トレーニングフェーズは、異なるサーマルカメラからキャプチャされた2つのデータセットで行われます。
Ground Truth Labelerアプリは、画像内の人物のラベル付けに使用される。
その結果, 提案手法は, 人検出, ソーシャルディスタンシング分類, 体温分析のためのスマート監視システムの構築に適していることがわかった。 COVID-19 is a disease caused by severe respiratory syndrome coronavirus. It was identified in December 2019 in Wuhan, China. It has resulted in an ongoing pandemic that caused infected cases including some deaths. Coronavirus is primarily spread between people during close contact. Motivating to this notion, this research proposes an artificial intelligence system for social distancing classification of persons by using thermal images. By exploiting YOLOv2 (you look at once), a deep learning detection technique is developed for detecting and tracking people in indoor and outdoor scenarios. An algorithm is also implemented for measuring and classifying the distance between persons and automatically check if social distancing rules are respected or not. Hence, this work aims at minimizing the spread of the COVID-19 virus by evaluating if and how persons comply with social distancing rules. The proposed approach is applied to images acquired through thermal cameras, to establish a complete AI system for people tracking, social distancing classification, and body temperature monitoring. The training phase is done with two datasets captured from different thermal cameras. Ground Truth Labeler app is used for labeling the persons in the images. The achieved results show that the proposed method is suitable for the creation of a smart surveillance system in smart cities for people detection, social distancing classification, and body temperature analysis. | 翻訳日:2022-09-13 12:52:05 公開日:2022-09-10 |
# マルチクリトリア意思決定の結果を説明する Explaining Results of Multi-Criteria Decision Making ( http://arxiv.org/abs/2209.04582v1 ) ライセンス: Link先を確認 | Martin Erwig and Prashant Kumar | (参考訳) 本稿では,WSM や AHP など,様々な線形および階層的多重基準決定(MCDM)技術の結果を説明する手法を提案する。
2つの主要なアイデアは、(A)これらのテクニックによって操作された値のきめ細かい表現を維持すること、(B)マージ、フィルタリング、集約操作を通じてこれらの表現から説明を引き出すことである。
このモデルにおける説明は、mcdm問題における2つの選択肢(おそらく最適問題と非最適問題)のハイレベルな比較を示し、一方の選択肢が他方よりも優先された理由を照らしている。
MCDM文献からよく知られた2つの例について,本手法の有用性を示す。
最後に,計算実験を行い,その有効性を示す。 We introduce a method for explaining the results of various linear and hierarchical multi-criteria decision-making (MCDM) techniques such as WSM and AHP. The two key ideas are (A) to maintain a fine-grained representation of the values manipulated by these techniques and (B) to derive explanations from these representations through merging, filtering, and aggregating operations. An explanation in our model presents a high-level comparison of two alternatives in an MCDM problem, presumably an optimal and a non-optimal one, illuminating why one alternative was preferred over the other one. We show the usefulness of our techniques by generating explanations for two well-known examples from the MCDM literature. Finally, we show their efficacy by performing computational experiments. | 翻訳日:2022-09-13 12:46:07 公開日:2022-09-10 |
# 部分測定による調整粒子加速器エミタンスのベイズアルゴリズムによる実行 Bayesian Algorithm Execution for Tuning Particle Accelerator Emittance with Partial Measurements ( http://arxiv.org/abs/2209.04587v1 ) ライセンス: Link先を確認 | Sara A. Miskovich, Willie Neiswanger, William Colocho, Claudio Emma, Jacqueline Garrahan, Timothy Maxwell, Christopher Mayes, Stefano Ermon, Auralee Edelen, Daniel Ratner | (参考訳) 従来のブラックボックス最適化手法は、マルチポイント計測を扱う場合、すなわち、制御領域の各クエリが目的を計算するためにセカンダリドメイン内の一連の測定を必要とする場合、非効率である。
粒子加速器では、四重極走査からのエミタンスチューニングが多点測定による最適化の例である。
発光は、X線レーザーや線形衝突器を含む高輝度機械の性能にとって重要なパラメータであるが、総合的な最適化はチューニングに必要な時間によって制限されることが多い。
本稿では,最近提案されたベイズアルゴリズム実行(BAX)を,多点計測による最適化に拡張する。
baxは、ジョイント制御測定領域内の個々の点を選択してモデル化することでサンプル効率を達成する。
我々は,Linac Coherent Light Source (LCLS) と Advanced Accelerator Experimental Tests II (FACET-II) 粒子加速器の発光最小化にBAXを適用した。
LCLSシミュレーション環境では,BAXは従来の最適化手法に比べてノイズに強いため,効率が20倍向上することを示した。
さらに,FACET-IIのハンドチューニングエミタンスをLCLSとFACET-IIの両方で実行し,LCLSのハンドチューニングで得られたものよりも24%低い最適なエミタンスを実現した。
我々は,本手法が科学機器でよく見られる多点計測を含む他の最適化問題にも容易に適用可能であることを期待する。 Traditional black-box optimization methods are inefficient when dealing with multi-point measurement, i.e. when each query in the control domain requires a set of measurements in a secondary domain to calculate the objective. In particle accelerators, emittance tuning from quadrupole scans is an example of optimization with multi-point measurements. Although the emittance is a critical parameter for the performance of high-brightness machines, including X-ray lasers and linear colliders, comprehensive optimization is often limited by the time required for tuning. Here, we extend the recently-proposed Bayesian Algorithm Execution (BAX) to the task of optimization with multi-point measurements. BAX achieves sample-efficiency by selecting and modeling individual points in the joint control-measurement domain. We apply BAX to emittance minimization at the Linac Coherent Light Source (LCLS) and the Facility for Advanced Accelerator Experimental Tests II (FACET-II) particle accelerators. In an LCLS simulation environment, we show that BAX delivers a 20x increase in efficiency while also being more robust to noise compared to traditional optimization methods. Additionally, we ran BAX live at both LCLS and FACET-II, matching the hand-tuned emittance at FACET-II and achieving an optimal emittance that was 24% lower than that obtained by hand-tuning at LCLS. We anticipate that our approach can readily be adapted to other types of optimization problems involving multi-point measurements commonly found in scientific instruments. | 翻訳日:2022-09-13 12:45:53 公開日:2022-09-10 |
# オンライン評価システムへの機械学習の適用 Application of Machine Learning for Online Reputation Systems ( http://arxiv.org/abs/2209.04650v1 ) ライセンス: Link先を確認 | Ahmad Alqwadri, Mohammad Azzeh, Fadi Almasalha | (参考訳) インターネット上のユーザーは、通常、より良い購入推奨を提供するために会場を必要とします。
これは評価を処理してレコメンデーションを提供する評価システムによって提供される。
評価集計プロセスは、製品品質に関するグローバルな意見を生み出すための評価システムの主要な部分です。
頻繁に使われるナイーブな手法は、消費者のプロファイルを計算で考慮せず、不公平な評価や新しい評価で現れる傾向を発見できない。
その他の高度な評価集計手法は、消費者プロファイルデータの1つまたはいくつかの側面に焦点を当てている。
本稿では,機械学習を用いて消費者プロファイルから消費者の信頼性を予測する新しい評価システムを提案する。
特に,機械学習アルゴリズムへの入力として,消費者の信頼性に大きな影響を与える要因の集合を抽出し,新たな消費者プロファイルデータセットを構築する。
予測重量は、製品評価スコアを計算するための重み付き平均手法と統合される。
提案モデルは10-Foldsクロスバリデーションを用いて、3つのMovieLensベンチマークデータセットで評価されている。
さらに,提案モデルの性能は,従来の評価集計モデルと比較された。
その結果,提案手法が評価システムの潜在的な解決策となる可能性が示唆された。
比較の結果,モデルの精度が示された。
最後に,提案手法をオンラインレコメンデーションシステムに統合して,より優れたレコメンデーションを提供し,オンラインショッピングマーケットでのユーザエクスペリエンスを促進する。 Users on the internet usually require venues to provide better purchasing recommendations. This can be provided by a reputation system that processes ratings to provide recommendations. The rating aggregation process is a main part of reputation system to produce global opinion about the product quality. Naive methods that are frequently used do not consider consumer profiles in its calculation and cannot discover unfair ratings and trends emerging in new ratings. Other sophisticated rating aggregation methods that use weighted average technique focus on one or a few aspects of consumers profile data. This paper proposes a new reputation system using machine learning to predict reliability of consumers from consumer profile. In particular, we construct a new consumer profile dataset by extracting a set of factors that have great impact on consumer reliability, which serve as an input to machine learning algorithms. The predicted weight is then integrated with a weighted average method to compute product reputation score. The proposed model has been evaluated over three MovieLens benchmarking datasets, using 10-Folds cross validation. Furthermore, the performance of the proposed model has been compared to previous published rating aggregation models. The obtained results were promising which suggest that the proposed approach could be a potential solution for reputation systems. The results of comparison demonstrated the accuracy of our models. Finally, the proposed approach can be integrated with online recommendation systems to provide better purchasing recommendations and facilitate user experience on online shopping markets. | 翻訳日:2022-09-13 12:45:28 公開日:2022-09-10 |
# テレダーマトロジー写真における説明可能な画質評価 Explainable Image Quality Assessments in Teledermatological Photography ( http://arxiv.org/abs/2209.04699v1 ) ライセンス: Link先を確認 | Raluca Jalaboi, Ole Winther, Alfiia Galimzianova | (参考訳) 画像の質は、遠隔医療の成功の重要な要因である。
しかし、患者が送った画像の最大50%には品質の問題があり、診断と治療の時間が増加する。
画像品質評価のための自動化, デプロイ, 説明の容易な手法は, 現状の遠隔皮膚科コンサルテーションフローを改善するために必要である。
我々は、画像品質評価のために訓練された畳み込みニューラルネットワークであるImageQXを紹介し、悪いフレーミング、悪い照明、ぼやけ、解像度の低さ、距離の問題といった、最も一般的な画像品質の説明を識別する学習メカニズムについて紹介する。
imageqxは26635枚の写真で訓練され、9874枚の写真で検証された。
写真は2017年から2019年にかけて、世界中の皮膚疾患追跡アプリを使って撮影されました。
本手法は,画像品質評価と低画質説明の両方において,エキスパートレベルの性能を実現する。
画質評価のために、imageqx はマクロ f1-score を 0.73 とし、ペアワイズレート間f1-score の標準偏差 0.77 とする。
画像品質の悪い説明では,0.37~0.70のf1-scoreを,0.24〜0.83の対レート間f1-scoreに類似させる。
さらに、サイズがわずか15MBのImageQXは、モバイルデバイスに簡単にデプロイできる。
皮膚科医と同じような画像品質検出性能により、画像QXを皮膚科医の皮膚科医に対する画像評価負担を軽減すると同時に、患者の診断と治療の時間を短縮することができる。
imageqxは,仮想環境での皮膚科ケアの品質と効率を改善するために,ドメインの専門知識を活用した,説明可能な画像品質評価装置である。 Image quality is a crucial factor in the success of teledermatological consultations. However, up to 50% of images sent by patients have quality issues, thus increasing the time to diagnosis and treatment. An automated, easily deployable, explainable method for assessing image quality is necessary to improve the current teledermatological consultation flow. We introduce ImageQX, a convolutional neural network trained for image quality assessment with a learning mechanism for identifying the most common poor image quality explanations: bad framing, bad lighting, blur, low resolution, and distance issues. ImageQX was trained on 26635 photographs and validated on 9874 photographs, each annotated with image quality labels and poor image quality explanations by up to 12 board-certified dermatologists. The photographic images were taken between 2017-2019 using a mobile skin disease tracking application accessible worldwide. Our method achieves expert-level performance for both image quality assessment and poor image quality explanation. For image quality assessment, ImageQX obtains a macro F1-score of 0.73 which places it within standard deviation of the pairwise inter-rater F1-score of 0.77. For poor image quality explanations, our method obtains F1-scores of between 0.37 and 0.70, similar to the inter-rater pairwise F1-score of between 0.24 and 0.83. Moreover, with a size of only 15 MB, ImageQX is easily deployable on mobile devices. With an image quality detection performance similar to that of dermatologists, incorporating ImageQX into the teledermatology flow can reduce the image evaluation burden on dermatologists, while at the same time reducing the time to diagnosis and treatment for patients. We introduce ImageQX, a first of its kind explainable image quality assessor which leverages domain expertise to improve the quality and efficiency of dermatological care in a virtual setting. | 翻訳日:2022-09-13 12:39:08 公開日:2022-09-10 |
# ガウスプロセスデコーダのアクティブセットの再検討 Revisiting Active Sets for Gaussian Process Decoders ( http://arxiv.org/abs/2209.04636v1 ) ライセンス: Link先を確認 | Pablo Moreno-Mu\~noz, Cilie W Feldager, S{\o}ren Hauberg | (参考訳) ガウス過程 (GP) 上に構築されたデコーダは、非線型関数空間上の余分化のために魅力的である。
このようなモデル(GP-LVMとも呼ばれる)は、しばしば高価で訓練が難しいが、変分推論や点の誘導によってスケールできる。
本稿では、アクティブ集合近似を再検討する。
本稿では,最近発見されたクロスバリデーションのリンクに基づいて,対数確率の新しい確率的推定法を開発し,その近似法を提案する。
その結果,確率的能動集合 (SAS) 近似は計算コストを低減しつつGPデコーダトレーニングの堅牢性を大幅に向上させることを示した。
SAS-GPは遅延空間においてより多くの構造を取得し、多くのデータポイントにスケールし、変分オートエンコーダよりも優れた表現を学習する。 Decoders built on Gaussian processes (GPs) are enticing due to the marginalisation over the non-linear function space. Such models (also known as GP-LVMs) are often expensive and notoriously difficult to train in practice, but can be scaled using variational inference and inducing points. In this paper, we revisit active set approximations. We develop a new stochastic estimate of the log-marginal likelihood based on recently discovered links to cross-validation, and propose a computationally efficient approximation thereof. We demonstrate that the resulting stochastic active sets (SAS) approximation significantly improves the robustness of GP decoder training while reducing computational cost. The SAS-GP obtains more structure in the latent space, scales to many datapoints and learns better representations than variational autoencoders, which is rarely the case for GP decoders. | 翻訳日:2022-09-13 12:33:04 公開日:2022-09-10 |
# 粒子勾配流によるバッチベイズ最適化 Batch Bayesian Optimization via Particle Gradient Flows ( http://arxiv.org/abs/2209.04722v1 ) ライセンス: Link先を確認 | Enrico Crovini, Simon L. Cotter, Konstantinos Zygalakis and Andrew B. Duncan | (参考訳) ベイズ最適化(BO)法は,ブラックボックスとしてのみ利用可能か,評価に費用がかかる対象関数のグローバルな最適化を求める。
このような手法は目的関数の代理モデルを構築し、ベイズ予想を通じてその代理関数の不確かさを定量化する。
各ステップで取得関数を最大化することにより、客観的評価を順次決定する。
しかし、この補助的最適化問題は、獲得関数の非凸性、特にバッチベイズ最適化の場合、ステップ毎に複数の点が選択されるため、非常に非自明である。
本研究では,確率測度空間上の最適化問題としてバッチBOを再構成する。
確率測度空間上での凸である多点予測改善に基づく新たな獲得関数を構築する。
この「インナー」最適化問題を解くための実践的スキームは、この目的関数の勾配流として自然に生じる。
異なるベンチマーク関数に対する新しい手法の有効性を実証し、最先端のバッチBO法と比較する。 Bayesian Optimisation (BO) methods seek to find global optima of objective functions which are only available as a black-box or are expensive to evaluate. Such methods construct a surrogate model for the objective function, quantifying the uncertainty in that surrogate through Bayesian inference. Objective evaluations are sequentially determined by maximising an acquisition function at each step. However, this ancilliary optimisation problem can be highly non-trivial to solve, due to the non-convexity of the acquisition function, particularly in the case of batch Bayesian optimisation, where multiple points are selected in every step. In this work we reformulate batch BO as an optimisation problem over the space of probability measures. We construct a new acquisition function based on multipoint expected improvement which is convex over the space of probability measures. Practical schemes for solving this `inner' optimisation problem arise naturally as gradient flows of this objective function. We demonstrate the efficacy of this new method on different benchmark functions and compare with state-of-the-art batch BO methods. | 翻訳日:2022-09-13 12:32:51 公開日:2022-09-10 |
# 時系列における教師なし異常検出の比較研究:実験と解析 A Comparative Study on Unsupervised Anomaly Detection for Time Series: Experiments and Analysis ( http://arxiv.org/abs/2209.04635v1 ) ライセンス: Link先を確認 | Yan Zhao, Liwei Deng, Xuanhao Chen, Chenjuan Guo, Bin Yang, Tung Kieu, Feiteng Huang, Torben Bach Pedersen, Kai Zheng, Christian S. Jensen | (参考訳) 社会的プロセスの継続的なデジタル化は、不正検出、侵入検知、エネルギー管理などの応用をカバーする時系列データの拡散に変換される。
近年,時系列データの異常検出が盛んに行われている。
実際、時系列異常検出の領域は、多様なデータ、方法、評価戦略によって特徴づけられ、既存の研究における比較は、この多様性の一部しか考慮していないため、特定の問題の設定に最適な方法を選択することは困難である。
この欠点に対処するために,データ,手法,評価戦略の分類法を紹介するとともに,分類法を用いて教師なし時系列異常検出の包括的概要を述べるとともに,最先端の伝統的手法と深層学習手法を体系的に評価・比較する。
9つの公開データセットを用いた実証研究では、最も一般的に使用されているパフォーマンス評価メトリクスを、公正な実装標準の下で典型的なメソッドに適用する。
分類学の提供する構造に基づいて経験的研究を報告し、特定のアプリケーション設定に最も適した方法を選択するための比較表の形式でガイドラインを提供する。
最後に,この力学分野の研究方向を提案する。 The continued digitization of societal processes translates into a proliferation of time series data that cover applications such as fraud detection, intrusion detection, and energy management, where anomaly detection is often essential to enable reliability and safety. Many recent studies target anomaly detection for time series data. Indeed, area of time series anomaly detection is characterized by diverse data, methods, and evaluation strategies, and comparisons in existing studies consider only part of this diversity, which makes it difficult to select the best method for a particular problem setting. To address this shortcoming, we introduce taxonomies for data, methods, and evaluation strategies, provide a comprehensive overview of unsupervised time series anomaly detection using the taxonomies, and systematically evaluate and compare state-of-the-art traditional as well as deep learning techniques. In the empirical study using nine publicly available datasets, we apply the most commonly-used performance evaluation metrics to typical methods under a fair implementation standard. Based on the structuring offered by the taxonomies, we report on empirical studies and provide guidelines, in the form of comparative tables, for choosing the methods most suitable for particular application settings. Finally, we propose research directions for this dynamic field. | 翻訳日:2022-09-13 12:27:34 公開日:2022-09-10 |
# 病期早期認知症予測のための機械学習法の安定性の検討 Examining stability of machine learning methods for predicting dementia at early phases of the disease ( http://arxiv.org/abs/2209.04643v1 ) ライセンス: Link先を確認 | Sinan Faouri, Mahmood AlBashayreh and Mohammad Azzeh | (参考訳) 認知症 (Dementia) は、通常1つ以上の脳細胞が部分的に、または全く機能しなくなったときに起こる神経精神疾患である。
疾患の初期段階におけるこの疾患の診断は、悪い結果から患者を救い、より良い医療を提供するための重要な課題である。
機械学習手法は、疾患の初期段階における認知症の予測に正確であることが証明されている。
認知症の予測は、通常、MRI(MRI)から測定・補正される正常化された全脳容積(nWBV)とAtlas Scaling Factor(ASF)から収集される収集データの種類に大きく依存する。
その他の生物学的特徴、例えば年齢や性別は認知症の診断にも役立つ。
多くの研究は認知症予測に機械学習を用いるが、異なる実験条件下でより正確であるこれらの方法の安定性について結論を出すことはできなかった。
そこで本研究では,認知症予測のための機械学習アルゴリズムの性能に関する結論安定性について検討する。
これを実現するために、7つの機械学習アルゴリズムと2つの特徴量削減アルゴリズム、すなわち情報ゲイン(IG)と主成分分析(PCA)を用いて多数の実験が行われた。
これらのアルゴリズムの安定性を検討するために, IGの特徴選択閾値を20%から100%に, PCA寸法を2~8に変更した。
その結果、7x9 + 7x7=112の実験が行われた。
各実験で各種分類評価データを記録した。
その結果,7つのアルゴリズムのうち,サポートベクターマシンとナイーブベイズが選択しきい値を変化させながら最も安定なアルゴリズムであることが判明した。
また,認知症予測にはPCAよりもIGの方が効果的であると考えられた。 Dementia is a neuropsychiatric brain disorder that usually occurs when one or more brain cells stop working partially or at all. Diagnosis of this disorder in the early phases of the disease is a vital task to rescue patients lives from bad consequences and provide them with better healthcare. Machine learning methods have been proven to be accurate in predicting dementia in the early phases of the disease. The prediction of dementia depends heavily on the type of collected data which usually are gathered from Normalized Whole Brain Volume (nWBV) and Atlas Scaling Factor (ASF) which are normally measured and corrected from Magnetic Resonance Imaging (MRIs). Other biological features such as age and gender can also help in the diagnosis of dementia. Although many studies use machine learning for predicting dementia, we could not reach a conclusion on the stability of these methods for which one is more accurate under different experimental conditions. Therefore, this paper investigates the conclusion stability regarding the performance of machine learning algorithms for dementia prediction. To accomplish this, a large number of experiments were run using 7 machine learning algorithms and two feature reduction algorithms namely, Information Gain (IG) and Principal Component Analysis (PCA). To examine the stability of these algorithms, thresholds of feature selection were changed for the IG from 20% to 100% and the PCA dimension from 2 to 8. This has resulted in 7x9 + 7x7= 112 experiments. In each experiment, various classification evaluation data were recorded. The obtained results show that among seven algorithms the support vector machine and Naive Bayes are the most stable algorithms while changing the selection threshold. Also, it was found that using IG would seem more efficient than using PCA for predicting Dementia. | 翻訳日:2022-09-13 12:27:15 公開日:2022-09-10 |
# 行動の前に聞く - 質問による新しい環境への一般化 Ask Before You Act: Generalising to Novel Environments by Asking Questions ( http://arxiv.org/abs/2209.04665v1 ) ライセンス: Link先を確認 | Ross Murphy, Sergey Mosesov, Javier Leguina Peral, Thymo ter Doest | (参考訳) 時間拡張タスクを解くことは、ほとんどの強化学習(RL)アルゴリズム [arXiv:1906.07343] の課題である。
本稿では,自然言語質問を学習するrlエージェントの環境理解ツールとしての能力について検討し,新たな時間的拡張環境における一般化性能の向上について検討する。
私たちは、このエージェントに"yes-no"の質問を全知のオラクルに依頼することで、これを行います。
これによりエージェントは、新しい情報へのアクセスを制限しながら、手元のタスクに関するガイダンスを得ることができる。
時間的拡張タスクの文脈におけるこのような自然言語質問の出現を研究するために,まずミニグリッド環境でエージェントを訓練する。
そして、訓練されたエージェントを別のより難しい環境に移します。
質問できないベースラインエージェントと比較して,一般化性能は著しく向上している。
エージェントは、その環境における自然言語の理解を基盤として、その環境のダイナミクスを推論し、新しい環境に配備されたときに、新しい、関連する質問をすることができる。 Solving temporally-extended tasks is a challenge for most reinforcement learning (RL) algorithms [arXiv:1906.07343]. We investigate the ability of an RL agent to learn to ask natural language questions as a tool to understand its environment and achieve greater generalisation performance in novel, temporally-extended environments. We do this by endowing this agent with the ability of asking "yes-no" questions to an all-knowing Oracle. This allows the agent to obtain guidance regarding the task at hand, while limiting the access to new information. To study the emergence of such natural language questions in the context of temporally-extended tasks we first train our agent in a Mini-Grid environment. We then transfer the trained agent to a different, harder environment. We observe a significant increase in generalisation performance compared to a baseline agent unable to ask questions. Through grounding its understanding of natural language in its environment, the agent can reason about the dynamics of its environment to the point that it can ask new, relevant questions when deployed in a novel environment. | 翻訳日:2022-09-13 12:26:47 公開日:2022-09-10 |
# 変分オートエンコーダカーネル解釈と分類のための選択 Variational Autoencoder Kernel Interpretation and Selection for Classification ( http://arxiv.org/abs/2209.04715v1 ) ライセンス: Link先を確認 | F\'abio Mendon\c{c}a, Sheikh Shanawaz Mostafa, Fernando Morgado-Dias, and Antonio G. Ravelo-Garc\'ia | (参考訳) 本研究では,変分オートエンコーダの畳み込みエンコーダが生成する特徴に基づく確率的分類器のカーネル選択手法を提案する。
特に、発達した方法論は、潜在変数の最も関連する部分集合の選択を可能にする。
提案した実装では、各カーネルに対して各分散が生成されるため、各潜伏変数を最終エンコーダの畳み込み層の単一カーネルに関連付けられた分布からサンプリングした。
したがって、サンプルされた潜在変数の関連機能を選択することで、カーネル選択を実行し、不均一な特徴とカーネルをフィルタリングすることができる。
これにより、モデルのパラメータの数を減らすことができる。
特徴選択のためにラッパー法とフィルタ法の両方を評価した。
2つ目は、カーネルの分布のみに基づいているため、特に関連性があった。
すべての分布間のKulback-Leiblerのばらつきを測定し、分布がより類似したカーネルを破棄できると仮定して評価した。
この仮説は、最も類似したカーネルが関連情報を伝達せず、取り除くことができることから確認された。
その結果,提案手法は資源制約型デバイスの開発に適している。 This work proposed kernel selection approaches for probabilistic classifiers based on features produced by the convolutional encoder of a variational autoencoder. Particularly, the developed methodologies allow the selection of the most relevant subset of latent variables. In the proposed implementation, each latent variable was sampled from the distribution associated with a single kernel of the last encoder's convolution layer, as an individual distribution was created for each kernel. Therefore, choosing relevant features on the sampled latent variables makes it possible to perform kernel selection, filtering the uninformative features and kernels. Such leads to a reduction in the number of the model's parameters. Both wrapper and filter methods were evaluated for feature selection. The second was of particular relevance as it is based only on the distributions of the kernels. It was assessed by measuring the Kullback-Leibler divergence between all distributions, hypothesizing that the kernels whose distributions are more similar can be discarded. This hypothesis was confirmed since it was observed that the most similar kernels do not convey relevant information and can be removed. As a result, the proposed methodology is suitable for developing applications for resource-constrained devices. | 翻訳日:2022-09-13 12:26:31 公開日:2022-09-10 |
# 視覚と言語ナビゲーションの不明瞭さを予想する Anticipating the Unseen Discrepancy for Vision and Language Navigation ( http://arxiv.org/abs/2209.04725v1 ) ライセンス: Link先を確認 | Yujie Lu, Huiliang Zhang, Ping Nie, Weixi Feng, Wenda Xu, Xin Eric Wang, William Yang Wang | (参考訳) 視覚言語ナビゲーションでは、エージェントは特定のターゲットに到達するために自然言語命令に従う必要がある。
見えない環境と見えない環境の間に大きな違いがあるため、エージェントがうまく一般化することは困難である。
従来の研究では、データバイアスを明示的にあるいは暗黙的に緩和し、一般化を改善するためのデータ拡張手法が提案されている。
しかし、拡張トラジェクタを記憶し、テスト時に見えない環境下での分布シフトを無視しようとする。
本稿では,テスト時の視覚的一貫性を奨励することにより,未認識環境への一般化を学習する非知覚予測視覚言語ナビゲーション(davis)を提案する。
具体的には、
1)類似のセマンティックな観察を通して視覚的整合性信号を利用する半教師付きフレームワークDAVIS。
2) テスト時間分布への適応を促す2段階の学習手順。
このフレームワークは、Momentum Contrastとの模倣と強化学習の基本的な混合を強化し、共同訓練段階と試験時間適応段階における同様の観察における安定した意思決定を促進する。
DAVISは従来のR2RとRxRベンチマークのVLNベースラインよりもモデルに依存しない改善を実現している。
ソースコードとデータは補足資料です。 Vision-Language Navigation requires the agent to follow natural language instructions to reach a specific target. The large discrepancy between seen and unseen environments makes it challenging for the agent to generalize well. Previous studies propose data augmentation methods to mitigate the data bias explicitly or implicitly and provide improvements in generalization. However, they try to memorize augmented trajectories and ignore the distribution shifts under unseen environments at test time. In this paper, we propose an Unseen Discrepancy Anticipating Vision and Language Navigation (DAVIS) that learns to generalize to unseen environments via encouraging test-time visual consistency. Specifically, we devise: 1) a semi-supervised framework DAVIS that leverages visual consistency signals across similar semantic observations. 2) a two-stage learning procedure that encourages adaptation to test-time distribution. The framework enhances the basic mixture of imitation and reinforcement learning with Momentum Contrast to encourage stable decision-making on similar observations under a joint training stage and a test-time adaptation stage. Extensive experiments show that DAVIS achieves model-agnostic improvement over previous state-of-the-art VLN baselines on R2R and RxR benchmarks. Our source code and data are in supplemental materials. | 翻訳日:2022-09-13 12:21:29 公開日:2022-09-10 |
# クロス表現アライメントを用いた自己監視型メッシュリカバリ Self-supervised Human Mesh Recovery with Cross-Representation Alignment ( http://arxiv.org/abs/2209.04596v1 ) ライセンス: Link先を確認 | Xuan Gong, Meng Zheng, Benjamin Planche, Srikrishna Karanam, Terrence Chen, David Doermann, and Ziyan Wu | (参考訳) 完全に監視されたヒトメッシュのリカバリ手法は,3dアノテートされたベンチマークデータセットの可用性と多様性が限られているため,汎用性が乏しい。
近年、合成データ駆動型トレーニングパラダイムを用いて、合成2次元表現(例えば、2Dキーポイントとセグメンテーションマスク)と3Dメッシュからモデルを訓練している。
しかし,合成高次対応写像(iuv)では,合成訓練データと実テストデータとの領域ギャップが2次元高次表現では解決しにくいため,ほとんど研究されていない。
iuv上のこの領域間隙を緩和するために,ロバストだがスパースな表現(2dキーポイント)からの補完情報を利用した相互表現アライメントを提案する。
具体的には,初期メッシュ推定と2次元表現のアライメント誤差を回帰器に転送し,次のメッシュ回帰で動的に補正する。
この適応的なクロス表現アライメントは偏差から明示的に学習し、疎表現からのロバスト性、高密度表現からの豊かさといった補完的な情報を取り込む。
我々は、複数の標準ベンチマークデータセットに関する広範な実験を行い、競争力のある結果を示し、人間のメッシュ推定における最先端モデルの生成に必要なアノテーションの労力を減らすために役立ちます。 Fully supervised human mesh recovery methods are data-hungry and have poor generalizability due to the limited availability and diversity of 3D-annotated benchmark datasets. Recent progress in self-supervised human mesh recovery has been made using synthetic-data-driven training paradigms where the model is trained from synthetic paired 2D representation (e.g., 2D keypoints and segmentation masks) and 3D mesh. However, on synthetic dense correspondence maps (i.e., IUV) few have been explored since the domain gap between synthetic training data and real testing data is hard to address for 2D dense representation. To alleviate this domain gap on IUV, we propose cross-representation alignment utilizing the complementary information from the robust but sparse representation (2D keypoints). Specifically, the alignment errors between initial mesh estimation and both 2D representations are forwarded into regressor and dynamically corrected in the following mesh regression. This adaptive cross-representation alignment explicitly learns from the deviations and captures complementary information: robustness from sparse representation and richness from dense representation. We conduct extensive experiments on multiple standard benchmark datasets and demonstrate competitive results, helping take a step towards reducing the annotation effort needed to produce state-of-the-art models in human mesh estimation. | 翻訳日:2022-09-13 12:20:21 公開日:2022-09-10 |
# CoreDeep: 幅確率によるき裂検出アルゴリズムの改善 CoreDeep: Improving Crack Detection Algorithms Using Width Stochasticity ( http://arxiv.org/abs/2209.04648v1 ) ライセンス: Link先を確認 | Ram Krishna Pandey, Akshit Achara | (参考訳) 画像中のクラックの自動検出やセグメント化は、メンテナンスや運用のコスト削減に役立つ。
背景から亀裂を分離する明確な境界が存在しないため,難易度分析のための亀裂の検出,測定,定量化は困難である。
開発されたアルゴリズムは、データに関連する固有の課題を扱う必要がある。
知覚的に注目すべき課題は、色、強度、深さ、ぼやけ、動きの青、方向、欠陥に対する異なる関心領域(ROI)、スケール、照明、複雑で困難な背景などである。
これらのバリエーションは(crack interクラス)とイメージ(crack in-class変数)にまたがる。
全体として、大きな背景(インター)と前景(イントラクラス)のばらつきがある。
本研究では,これらの変化が背景シナリオの難易度に与える影響を低減しようと試みている。
我々は,これらの変動の影響を低減するために,確率幅(SW)アプローチを提案している。
提案手法は検出性を向上し,偽陽性と陰性を大幅に低減する。
我々は,平均IoU,偽陽性,陰性,主観的品質の観点からアルゴリズムの性能を客観的に測定した。 Automatically detecting or segmenting cracks in images can help in reducing the cost of maintenance or operations. Detecting, measuring and quantifying cracks for distress analysis in challenging background scenarios is a difficult task as there is no clear boundary that separates cracks from the background. Developed algorithms should handle the inherent challenges associated with data. Some of the perceptually noted challenges are color, intensity, depth, blur, motion-blur, orientation, different region of interest (ROI) for the defect, scale, illumination, complex and challenging background, etc. These variations occur across (crack inter class) and within images (crack intra-class variabilities). Overall, there is significant background (inter) and foreground (intra-class) variability. In this work, we have attempted to reduce the effect of these variations in challenging background scenarios. We have proposed a stochastic width (SW) approach to reduce the effect of these variations. Our proposed approach improves detectability and significantly reduces false positives and negatives. We have measured the performance of our algorithm objectively in terms of mean IoU, false positives and negatives and subjectively in terms of perceptual quality. | 翻訳日:2022-09-13 12:19:57 公開日:2022-09-10 |
# シーケンス・ツー・シークエンスモデルの単純かつ効果的な勾配ベースチューニング Simple and Effective Gradient-Based Tuning of Sequence-to-Sequence Models ( http://arxiv.org/abs/2209.04683v1 ) ライセンス: Link先を確認 | Jared Lichtarge and Chris Alberti and Shankar Kumar | (参考訳) 恒常的な言語モデルのトレーニングに向けた最近のトレンドは、言語タスク間での機械学習のパフォーマンスを大幅に改善している。
しかし、より大きなモデルをトレーニングする膨大なコストは、チューニングを違法に高価にし、より効率的な方法の研究を動機付けている。
勾配に基づくハイパーパラメータ最適化は、トレーニング中にハイパーパラメータをチューニングする能力を提供するが、シーケンスツーシーケンス設定ではこれまで研究されていなかった。
ニューラルネットワーク翻訳と自然言語理解(NLU)の両方のタスクに対して(T5事前学習による)強いベースライン上での効率性と性能の向上を実証し,シーケンス・ツー・シーケンスのタスクに対して,単純で一般的な勾配に基づくハイパーパラメータ最適化手法を初めて適用した。
翻訳では, 言語対をまたいで一般化し, ベイジアンハイパーパラメータ最適化よりも効率的であり, ハイパーパラメータの学習スケジュールは, 最適定数値チューニングよりも優れることを示す。
t5では,事前学習中にハイパーパラメータを学習することで,下流のnluタスクにおけるパフォーマンス向上が期待できる。
複数のハイパーパラメータを同時に学習すると、グローバル学習率は、パフォーマンスを向上させるトレーニングよりもスケジュールに従うことができ、greedyメソッドの‘short-horizon bias’によって説明できないことを示す。
さらなる研究を促進するために使用されるコードをリリースします。 Recent trends towards training ever-larger language models have substantially improved machine learning performance across linguistic tasks. However, the huge cost of training larger models can make tuning them prohibitively expensive, motivating the study of more efficient methods. Gradient-based hyper-parameter optimization offers the capacity to tune hyper-parameters during training, yet has not previously been studied in a sequence-to-sequence setting. We apply a simple and general gradient-based hyperparameter optimization method to sequence-to-sequence tasks for the first time, demonstrating both efficiency and performance gains over strong baselines for both Neural Machine Translation and Natural Language Understanding (NLU) tasks (via T5 pretraining). For translation, we show the method generalizes across language pairs, is more efficient than Bayesian hyper-parameter optimization, and that learned schedules for some hyper-parameters can out-perform even optimal constant-valued tuning. For T5, we show that learning hyper-parameters during pretraining can improve performance across downstream NLU tasks. When learning multiple hyper-parameters concurrently, we show that the global learning rate can follow a schedule over training that improves performance and is not explainable by the `short-horizon bias' of greedy methods \citep{wu2018}. We release the code used to facilitate further research. | 翻訳日:2022-09-13 12:18:40 公開日:2022-09-10 |
# 視覚における拡散モデル:調査 Diffusion Models in Vision: A Survey ( http://arxiv.org/abs/2209.04747v1 ) ライセンス: Link先を確認 | Florinel-Alin Croitoru, Vlad Hondru, Radu Tudor Ionescu, Mubarak Shah | (参考訳) 拡散モデルの認知はコンピュータビジョンにおける近年の話題であり、生成モデリングの領域において顕著な成果を示している。
拡散モデルは、前方拡散段階と逆拡散段階の2つの段階に基づく深い生成モデルである。
前方拡散段階では、ガウスノイズを加えることにより、入力データが数ステップにわたって徐々に摂動される。
逆段階では、拡散過程を段階的に徐々に逆転させる学習により、元の入力データを復元するモデルを課題とする。
拡散モデルは、その計算負荷、すなわちサンプリング中のステップ数の増加による低速さにもかかわらず、生成したサンプルの品質と多様性について広く評価されている。
本研究は,視覚に応用される分別拡散モデルに関する論文を総合的にレビューし,その分野における理論的および実用的貢献を考察する。
まず, 一般化確率モデル, 雑音条件付スコアネットワーク, 確率微分方程式に基づく3つの一般化拡散モデリングフレームワークを同定し, 提案する。
さらに,拡散モデルと可変オートエンコーダ,生成逆ネットワーク,エネルギーベースモデル,自己回帰モデル,正規化フローなど,他の深層生成モデルとの関係についても論じる。
次に,コンピュータビジョンに適用された拡散モデルの多視点分類を提案する。
最後に, 拡散モデルの現在の限界を説明し, 今後の研究に向けた興味深い方向性について考察する。 Denoising diffusion models represent a recent emerging topic in computer vision, demonstrating remarkable results in the area of generative modeling. A diffusion model is a deep generative model that is based on two stages, a forward diffusion stage and a reverse diffusion stage. In the forward diffusion stage, the input data is gradually perturbed over several steps by adding Gaussian noise. In the reverse stage, a model is tasked at recovering the original input data by learning to gradually reverse the diffusion process, step by step. Diffusion models are widely appreciated for the quality and diversity of the generated samples, despite their known computational burdens, i.e. low speeds due to the high number of steps involved during sampling. In this survey, we provide a comprehensive review of articles on denoising diffusion models applied in vision, comprising both theoretical and practical contributions in the field. First, we identify and present three generic diffusion modeling frameworks, which are based on denoising diffusion probabilistic models, noise conditioned score networks, and stochastic differential equations. We further discuss the relations between diffusion models and other deep generative models, including variational auto-encoders, generative adversarial networks, energy-based models, autoregressive models and normalizing flows. Then, we introduce a multi-perspective categorization of diffusion models applied in computer vision. Finally, we illustrate the current limitations of diffusion models and envision some interesting directions for future research. | 翻訳日:2022-09-13 12:13:45 公開日:2022-09-10 |