このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20200109となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# 科学知識の悪影響バランス:AI研究の出版は誤用を減らすか? The Offense-Defense Balance of Scientific Knowledge: Does Publishing AI Research Reduce Misuse? ( http://arxiv.org/abs/2001.00463v2 ) ライセンス: Link先を確認 | Toby Shevlane, Allan Dafoe | (参考訳) 人工知能(ai)研究の潜在的な誤用に対する懸念が高まっている。
科学研究の出版は技術の誤用を助長するが、この研究は誤用に対する保護にも貢献する。
本稿ではこれらの2つの効果のバランスについて述べる。
本研究は, 適切な防御策の可能性や, 科学界外における知識の独立発見など, 攻撃者や防衛者にとってより有用であるかどうかを規定する要因を明らかにする。
バランスは科学分野によって異なる。
しかし、AI内の既存の会話は、ソフトウェア脆弱性の開示に関するコンピュータセキュリティに関する以前の議論から概念や結論を取り入れたことを示している。
ソフトウェア脆弱性の開示は、しばしば防衛を好むが、これはAI研究には当てはまらない。
AI研究コミュニティは、幅広い分野のコンセプトとポリシーを検討すべきであり、究極的には、その特定の課題に適合したポリシーを構築する必要がある。 There is growing concern over the potential misuse of artificial intelligence (AI) research. Publishing scientific research can facilitate misuse of the technology, but the research can also contribute to protections against misuse. This paper addresses the balance between these two effects. Our theoretical framework elucidates the factors governing whether the published research will be more useful for attackers or defenders, such as the possibility for adequate defensive measures, or the independent discovery of the knowledge outside of the scientific community. The balance will vary across scientific fields. However, we show that the existing conversation within AI has imported concepts and conclusions from prior debates within computer security over the disclosure of software vulnerabilities. While disclosure of software vulnerabilities often favours defence, this cannot be assumed for AI research. The AI research community should consider concepts and policies from a broad set of adjacent fields, and ultimately needs to craft policy well-suited to its particular challenges. | 翻訳日:2023-06-09 22:45:31 公開日:2020-01-09 |
# 環境システムの概要と課題 : モデル構築への構成主義的アプローチに向けて Overview and Challenges of Ambient Systems, Towards a Constructivist Approach to their Modelling ( http://arxiv.org/abs/2001.09770v1 ) ライセンス: Link先を確認 | G\'erald Rocher, Jean-Yves Tigli, St\'ephane Lavirotte and Nhan Le Thanh | (参考訳) 閉鎖的かつ制御された環境から、外部の障害をすべて無視し、情報処理システムは現在、オープンで制御されていない物理的環境の複雑さと空白にさらされている。
実際、1991年にmark weiserが思い描いていたように、無線通信、エネルギー貯蔵、コンピュータ部品の小型化などの進歩により、物理的な世界とデジタル世界の融合が可能となった。
この融合は、Internet of Things、Pervasive Computing、Ubiquitous Computingなどの一連の概念に具体化されている。
これらの概念の合成から,センサからの環境データの単純な収集を超えて,これらの概念を基盤とした情報処理システムの目的は,これらのデータ処理が環境に示唆する適切な行動を行うことであることを示す。
しかしながら、これらのシステムの複雑さと行動の効果を予測できないため、これらの行動に対する責任は依然としてユーザによって維持されることが多い。
Mark Weiser氏のコンピューティングの消滅というビジョンは、現実には程遠いものです。
この状況は、構成主義の基礎を見いだす体系的アプローチによって具現化されると考えられる認識論的破壊を要求する。
もはや予測の問題ではなく、生体内におけるシステムの有効性を評価する問題である。
このようなアプローチの視点について論じる。 From a closed and controlled environment, neglecting all the external disturbances, information processing systems are now exposed to the complexity and the aleas of the physical environment, open and uncontrolled. Indeed, as envisioned by Mark Weiser as early as 1991, the progresses made on wireless communications, energy storage and the miniaturization of computer components, made it possible the fusion of the physical and digital worlds. This fusion is embodied in a set of concepts such as Internet of Things, Pervasive Computing, Ubiquitous Computing, etc. From a synthesis of these different concepts, we show that beyond the simple collection of environmental data from sensors, the purpose of the information processing systems underlying these concepts is to carry out relevant actions that the processing of these data suggests in our environment. However, due to the complexity of these systems and the inability to predict the effects of their actions, the responsibility for these actions still often remains with users. Mark Weiser's vision of disappearing computing is still far from being a reality. This situation calls for an epistemological rupture that is proposed to be concretized through the systemic approach which finds its foundations in constructivism. It is no longer a question of predicting but of evaluating in vivo the effectiveness of these systems. The perspectives for such an approach are discussed. | 翻訳日:2023-06-08 09:00:44 公開日:2020-01-09 |
# 分布内例とグラム行列を用いた分布外例の検出 Detecting Out-of-Distribution Examples with In-distribution Examples and Gram Matrices ( http://arxiv.org/abs/1912.12510v2 ) ライセンス: Link先を確認 | Chandramouli Shama Sastry, Sageev Oore | (参考訳) out-of-distribution (ood)の例を示すと、ディープニューラルネットワークは自信と誤った予測をもたらす。
OOD例の検出は困難であり、潜在的なリスクが高い。
本稿では,行動パターンとクラス予測の不整合を識別し,OODのサンプルを検出することを提案する。
グラム行列による活動パターンの特徴付けとグラム行列値の異常の同定により高いOOD検出率が得られることがわかった。
トレーニングデータ上で観測された各値と各範囲を単純に比較することで,グラム行列内の異常を同定する。
多くのアプローチとは異なり、これは事前訓練されたソフトマックス分類器で使用することができ、微調整されたハイパーパラメーターにOODデータにアクセスする必要はない。
この手法は様々なアーキテクチャやビジョンデータセットに適用可能であり、分布外分布の検出において重要かつ驚くほど難しいタスクに対して、一般的に最先端のOOD検出方法(OODの例へのアクセスを前提とするものを含む)よりも優れた性能を発揮する。 When presented with Out-of-Distribution (OOD) examples, deep neural networks yield confident, incorrect predictions. Detecting OOD examples is challenging, and the potential risks are high. In this paper, we propose to detect OOD examples by identifying inconsistencies between activity patterns and class predicted. We find that characterizing activity patterns by Gram matrices and identifying anomalies in gram matrix values can yield high OOD detection rates. We identify anomalies in the gram matrices by simply comparing each value with its respective range observed over the training data. Unlike many approaches, this can be used with any pre-trained softmax classifier and does not require access to OOD data for fine-tuning hyperparameters, nor does it require OOD access for inferring parameters. The method is applicable across a variety of architectures and vision datasets and, for the important and surprisingly hard task of detecting far-from-distribution out-of-distribution examples, it generally performs better than or equal to state-of-the-art OOD detection methods (including those that do assume access to OOD examples). | 翻訳日:2023-01-17 12:36:29 公開日:2020-01-09 |
# リアルタイムセグメンテーションと顔面皮膚トーン評価 Real-time Segmentation and Facial Skin Tones Grading ( http://arxiv.org/abs/1912.12888v2 ) ライセンス: Link先を確認 | Ling Luo, Dingyu Xue, Xinglong Feng, Yichun Yu, Peng Wang | (参考訳) セマンティックセグメンテーションの現代的なアプローチは、通常、モデルの正確さに多くの注意を払っているため、面倒なバックボーンの導入が強く推奨されているため、計算負荷とメモリフットプリントが重い。
そこで本研究では,3つのベンチマークデータセットにおける速度と性能の顕著なトレードオフを実現するために,頭髪と顔面皮膚のセグメンテーションタスクのための深層畳み込みニューラルネットワーク(dcnns)に基づく効率的なセグメンテーション手法を提案する。
我々の知る限りでは、照明や背景雑音などの外部環境要因の影響により、肌の色分類の精度が不満足であることが多い。
そこで,分割された顔を用いて特定の顔領域を求め,さらに色モーメントアルゴリズムを用いて色特徴を抽出する。
具体的には、高解像度空間詳細情報と低解像度コンテキスト情報融合ネットワーク(HLNet)を用いて、224×224の標準入力に対して、CPU環境の場合、90.73%の画素精度をFigaro1kデータセット上で16FPS以上で達成する。
CamVidデータセットのさらなる実験により、提案モデルの普遍性はさらに確認される。
さらに,肌の色調評価にマスクカラーモーメントを用い,約80%の分類精度で提案手法の有効性を実証した。 Modern approaches for semantic segmention usually pay too much attention to the accuracy of the model, and therefore it is strongly recommended to introduce cumbersome backbones, which brings heavy computation burden and memory footprint. To alleviate this problem, we propose an efficient segmentation method based on deep convolutional neural networks (DCNNs) for the task of hair and facial skin segmentation, which achieving remarkable trade-off between speed and performance on three benchmark datasets. As far as we know, the accuracy of skin tones classification is usually unsatisfactory due to the influence of external environmental factors such as illumination and background noise. Therefore, we use the segmentated face to obtain a specific face area, and further exploit the color moment algorithm to extract its color features. Specifically, for a 224 x 224 standard input, using our high-resolution spatial detail information and low-resolution contextual information fusion network (HLNet), we achieve 90.73% Pixel Accuracy on Figaro1k dataset at over 16 FPS in the case of CPU environment. Additional experiments on CamVid dataset further confirm the universality of the proposed model. We further use masked color moment for skin tones grade evaluation and approximate 80% classification accuracy demonstrate the feasibility of the proposed scheme.Code is available at https://github.com/JACKYLUO1991/Face-skin-hair-segmentaiton-and-skin-color-evaluation. | 翻訳日:2023-01-17 02:43:18 公開日:2020-01-09 |
# MushroomRL:強化学習研究の簡易化 MushroomRL: Simplifying Reinforcement Learning Research ( http://arxiv.org/abs/2001.01102v2 ) ライセンス: Link先を確認 | Carlo D'Eramo, Davide Tateo, Andrea Bonarini, Marcello Restelli and Jan Peters | (参考訳) MushroomRLはオープンソースのPythonライブラリで、強化学習(RL)実験の実装と実行を簡単にするために開発された。
他の利用可能なライブラリと比較して、MushroomRLは、新しいRL方法論の実装とテストの労力を最小限に抑えるために、包括的で柔軟なフレームワークを提供することを目的として作られた。
実際、MushroomRLのアーキテクチャは、RL問題のすべてのコンポーネントがすでに提供されている方法で構築されており、ほとんどの場合、ユーザは独自のアルゴリズムや実験の実装にのみ集中することができる。
その結果、rl研究者は、彼らの作品の実証的分析の臨界段階において著しく恩恵を受けることができるライブラリーとなった。
MushroomRLの安定的なコード、チュートリアル、ドキュメントはhttps://github.com/MushroomRL/mushroom-rlで見ることができる。 MushroomRL is an open-source Python library developed to simplify the process of implementing and running Reinforcement Learning (RL) experiments. Compared to other available libraries, MushroomRL has been created with the purpose of providing a comprehensive and flexible framework to minimize the effort in implementing and testing novel RL methodologies. Indeed, the architecture of MushroomRL is built in such a way that every component of an RL problem is already provided, and most of the time users can only focus on the implementation of their own algorithms and experiments. The result is a library from which RL researchers can significantly benefit in the critical phase of the empirical analysis of their works. MushroomRL stable code, tutorials and documentation can be found at https://github.com/MushroomRL/mushroom-rl. | 翻訳日:2023-01-14 12:29:14 公開日:2020-01-09 |
# エンタングル状態による古典的コミュニケーションを促進する置換法 Permutation Enhances Classical Communication Assisted by Entangled States ( http://arxiv.org/abs/2001.01845v2 ) ライセンス: Link先を確認 | Kun Wang and Masahito Hayashi | (参考訳) 送信側と受信側の間で共有される符号化状態と2成分状態において局所的操作と大域的置換が許容されるとき、ノイズの多い量子チャネル上での古典的通信の容量公式を与える。
この公式の2つのエンドポイントは、ホールボ容量(エンタングルメントアシストなし)とエンタングルメント支援容量(エンタングルメントアシスト無制限)である。
さらに、この容量が強い逆特性を満たすことを示し、この公式は達成可能な通信速度と達成不可能な通信速度の間の鋭い分割線として機能する。
補助容量とホレボ容量の差は、前影状態の形成の不協和によって上限づけられていることを証明する。
例えば、興味のある様々な量子チャネルの古典的な容量を解析的に導き出す。
我々の結果は、絡み合い支援が利用可能であればいつでも、古典的コミュニケーションにおけるランダムな置換のパワーを目撃する。 We give a capacity formula for the classical communication over a noisy quantum channel, when local operations and global permutations allowed in the encoding and bipartite states preshared between the sender and the receiver. The two endpoints of this formula are the Holevo capacity (without entanglement assistance) and the entanglement-assisted capacity (with unlimited entanglement assistance). What's more, we show that the capacity satisfies the strong converse property and thus the formula serves as a sharp dividing line between achievable and unachievable rates of communication. We prove that the difference between the assisted capacity and the Holevo capacity is upper bounded by the discord of formation of the preshared state. As examples, we derive analytically the classical capacity of various quantum channels of interests. Our result witnesses the power of random permutation in classical communication, whenever entanglement assistance is available. | 翻訳日:2023-01-13 21:36:40 公開日:2020-01-09 |
# 対話型対実例による非専門家へのニューラルネットワークバイアスの探索 Revealing Neural Network Bias to Non-Experts Through Interactive Counterfactual Examples ( http://arxiv.org/abs/2001.02271v2 ) ライセンス: Link先を確認 | Chelsea M. Myers, Evan Freed, Luis Fernando Laris Pardo, Anushay Furqan, Sebastian Risi, Jichen Zhu | (参考訳) AIアルゴリズムはバイアスに免疫がない。
伝統的に、非専門家は、人生に影響を及ぼす可能性のあるアルゴリズムの潜在的な社会的バイアス(例えば、性別バイアス)を明らかにする制御をほとんど持っていない。
本稿では,対話型可視化ツールCEBの予備設計を行い,一般的なAI手法であるニューラルネットワーク(NN)のバイアスを明らかにする。
CEBは、NN決定プロセスの反実例と抽象化を組み合わせて、非専門家にバイアスを検出する権限を与える。
本稿では,cebの設計と,ai,hci,社会科学の専門家による専門家パネル(n=6)の初期知見について述べる。 AI algorithms are not immune to biases. Traditionally, non-experts have little control in uncovering potential social bias (e.g., gender bias) in the algorithms that may impact their lives. We present a preliminary design for an interactive visualization tool CEB to reveal biases in a commonly used AI method, Neural Networks (NN). CEB combines counterfactual examples and abstraction of an NN decision process to empower non-experts to detect bias. This paper presents the design of CEB and initial findings of an expert panel (n=6) with AI, HCI, and Social science experts. | 翻訳日:2023-01-13 21:12:36 公開日:2020-01-09 |
# Fenchel-Rockafellar双対による強化学習 Reinforcement Learning via Fenchel-Rockafellar Duality ( http://arxiv.org/abs/2001.01866v2 ) ライセンス: Link先を確認 | Ofir Nachum, Bo Dai | (参考訳) 凸双対性(convex duality)の基本的な概念を概観し,フェンシェル・ロカフェラー双対性に焦点をあてた。
この双対性は、政策評価や最適化、オンラインまたはオフライン学習、割引または未公表の報酬を含む様々な強化学習(RL)設定にどのように適用できるかを要約する。
この導出は、行動非依存なオフラインデータでポリシー評価とオンポリシーポリシーグラデーションを実行する能力や、max-likelihood最適化を通じてポリシーを学ぶ方法など、興味深い結果をもたらす。
これらの結果の多くはこれまで様々な形で現れてきたが、これらの結果に対する統一的な治療と展望を提供しており、研究者が凸双対性のツールをよりよく利用し、活用してRLをさらに進歩させることを願っている。 We review basic concepts of convex duality, focusing on the very general and supremely useful Fenchel-Rockafellar duality. We summarize how this duality may be applied to a variety of reinforcement learning (RL) settings, including policy evaluation or optimization, online or offline learning, and discounted or undiscounted rewards. The derivations yield a number of intriguing results, including the ability to perform policy evaluation and on-policy policy gradient with behavior-agnostic offline data and methods to learn a policy via max-likelihood optimization. Although many of these results have appeared previously in various forms, we provide a unified treatment and perspective on these results, which we hope will enable researchers to better use and apply the tools of convex duality to make further progress in RL. | 翻訳日:2023-01-13 20:06:16 公開日:2020-01-09 |
# 低ノイズ対話型量子通信のためのキャパシティ・アタック符号化(i):大文字 Capacity Approaching Coding for Low Noise Interactive Quantum Communication, Part I: Large Alphabets ( http://arxiv.org/abs/2001.02818v1 ) ライセンス: Link先を確認 | Debbie Leung, Ashwin Nayak, Ala Shayeghi, Dave Touchette, Penghui Yao, Nengkun Yu | (参考訳) ノイズの多いチャネル上での双方向の対話型量子通信の実現は,通信における量子アドバンテージを完全に享受する上で必要な課題である。
n$メッセージを持つ任意のプロトコルに対して、$\mathrm{poly}(n)$大文字上のノイズのないquditチャネルのために設計されている、我々の主な結果は、2$^{-\Theta(n\epsilon)}$未満の確率で失敗するシミュレーション方法であり、同じアルファベット上のquditチャネルを$n\left(1+\Theta \left(\sqrt{\epsilon}\right)\right)$ timesで使用する。
したがって、シミュレーションは先行順序を達成する能力であり、$\sqrt{\epsilon}$項の定数係数まで最適であると推測する。
さらに、シミュレーションは、ランダム性や通信相手間の絡み合いといった事前共有されたリソースを必要としないモデルにある。
我々の研究は、より低い$\epsilon$に対して、オーバーヘッドが非明示的な大きな定数 [Brassard et al., FOCS'14] である最もよく知られた量子結果よりも改善される。 We consider the problem of implementing two-party interactive quantum communication over noisy channels, a necessary endeavor if we wish to fully reap quantum advantages for communication. For an arbitrary protocol with $n$ messages, designed for a noiseless qudit channel over a $\mathrm{poly}(n)$ size alphabet, our main result is a simulation method that fails with probability less than $2^{-\Theta(n\epsilon)}$ and uses a qudit channel over the same alphabet $n\left(1+\Theta \left(\sqrt{\epsilon}\right)\right)$ times, of which an $\epsilon$ fraction can be corrupted adversarially. The simulation is thus capacity achieving to leading order, and we conjecture that it is optimal up to a constant factor in the $\sqrt{\epsilon}$ term. Furthermore, the simulation is in a model that does not require pre-shared resources such as randomness or entanglement between the communicating parties. Our work improves over the best previously known quantum result where the overhead is a non-explicit large constant [Brassard et al., FOCS'14] for low $\epsilon$. | 翻訳日:2023-01-13 05:48:19 公開日:2020-01-09 |
# 浮動小数点演算におけるセキュア多要素計算 Secure multiparty computations in floating-point arithmetic ( http://arxiv.org/abs/2001.03192v1 ) ライセンス: Link先を確認 | Chuan Guo, Awni Hannun, Brian Knott, Laurens van der Maaten, Mark Tygert, and Ruiyu Zhu | (参考訳) セキュアなマルチパーティ計算は、いわゆる機密データの共有を複数のパーティに分散させることを可能にし、複数のパーティがデータを効率的に処理できると同時に、データに関する多くの情報を収集することができない(少なくともすべてのパーティがすべての共有をまとめ直すという共謀なしには)。
したがって、当事者は処理結果を全て信頼できる第三者(おそらくデータ提供者)に送ることを共謀し、信頼できる第三者だけが最終的な結果を見ることができる。
プライバシ保存機械学習のためのセキュアなマルチパーティ計算は、少なくともラウンドオフによる精度の低下よりも少ない情報を慎重に制御し、有限精度算術における情報損失と数値安定性に関する最悪ケース境界の厳密な数学的証明によって実現された。
数値的な例は、一般的な線形最小二乗回帰、二分数および多項ロジスティック回帰、プロビット回帰、ポアソン回帰を含む一般化線形モデルのためのコモディティオフザシェルフハードウェア上で達成された高性能な性能を示す。 Secure multiparty computations enable the distribution of so-called shares of sensitive data to multiple parties such that the multiple parties can effectively process the data while being unable to glean much information about the data (at least not without collusion among all parties to put back together all the shares). Thus, the parties may conspire to send all their processed results to a trusted third party (perhaps the data provider) at the conclusion of the computations, with only the trusted third party being able to view the final results. Secure multiparty computations for privacy-preserving machine-learning turn out to be possible using solely standard floating-point arithmetic, at least with a carefully controlled leakage of information less than the loss of accuracy due to roundoff, all backed by rigorous mathematical proofs of worst-case bounds on information loss and numerical stability in finite-precision arithmetic. Numerical examples illustrate the high performance attained on commodity off-the-shelf hardware for generalized linear models, including ordinary linear least-squares regression, binary and multinomial logistic regression, probit regression, and Poisson regression. | 翻訳日:2023-01-13 05:47:13 公開日:2020-01-09 |
# ニューラルネットワークを用いた画像透かしにおける埋め込み強度の適応制御 Adaptive Control of Embedding Strength in Image Watermarking using Neural Networks ( http://arxiv.org/abs/2001.03251v1 ) ライセンス: Link先を確認 | Mahnoosh Bagheri, Majid Mohrekesh, Nader Karimi, Shadrokh Samavi | (参考訳) デジタル画像透かしは、オーディオ、画像、ビデオファイルなどのデジタルメディアの著作権保護など、様々な用途で広く使われている。
強靭性と透明性の2つの反対の基準が透かし法の目標である。
本稿では,適切な埋め込み強度因子を決定するための枠組みを提案する。
このフレームワークは、ほとんどのDWTおよびDCTベースのブラインドウォーターマーキングアプローチを使用することができる。
我々はCOCOデータセット上でMask R-CNNを使用して,各サブブロックに対して優れた強度係数を求める。
実験により、この手法は異なる攻撃に対して堅牢であり、透明性が高いことが示された。 Digital image watermarking has been widely used in different applications such as copyright protection of digital media, such as audio, image, and video files. Two opposing criteria of robustness and transparency are the goals of watermarking methods. In this paper, we propose a framework for determining the appropriate embedding strength factor. The framework can use most DWT and DCT based blind watermarking approaches. We use Mask R-CNN on the COCO dataset to find a good strength factor for each sub-block. Experiments show that this method is robust against different attacks and has good transparency. | 翻訳日:2023-01-13 05:43:56 公開日:2020-01-09 |
# ドメイン独立型教師なし学習による新しいオブジェクトの理解 Domain Independent Unsupervised Learning to grasp the Novel Objects ( http://arxiv.org/abs/2001.05856v1 ) ライセンス: Link先を確認 | Siddhartha Vibhu Pharswan, Mohit Vohra, Ashish Kumar, and Laxmidhar Behera | (参考訳) 視覚に基づく把握の主要な課題の1つは、新しい物体と相互作用しながら実現可能な把握領域の選択である。
最近のアプローチでは、畳み込みニューラルネットワーク(cnn)のパワーを利用して、高い計算能力と時間コストで正確な把握を実現する。
本稿では,実現可能な把握領域選択のための教師なし学習に基づく新しいアルゴリズムを提案する。
教師なし学習は、外部ラベルなしでデータセットのパターンを推論する。
画像平面上のk平均クラスタリングを用いて把握領域を同定し,次に軸割当法を適用する。
画像平面における最良把持姿勢を選択するために, 把持決定指標(gdi)という新しい概念を定義する。
我々は、Amazon Robotics Challenge 2017とAmazon Picking Challenge 2016の標準オブジェクト上で、乱雑または孤立した環境でいくつかの実験を行った。
本研究では,様々な領域の新規物体に対するアルゴリズムのロバスト性と適応性を検証するために,事前学習に基づく手法との比較を行った。 One of the main challenges in the vision-based grasping is the selection of feasible grasp regions while interacting with novel objects. Recent approaches exploit the power of the convolutional neural network (CNN) to achieve accurate grasping at the cost of high computational power and time. In this paper, we present a novel unsupervised learning based algorithm for the selection of feasible grasp regions. Unsupervised learning infers the pattern in data-set without any external labels. We apply k-means clustering on the image plane to identify the grasp regions, followed by an axis assignment method. We define a novel concept of Grasp Decide Index (GDI) to select the best grasp pose in image plane. We have conducted several experiments in clutter or isolated environment on standard objects of Amazon Robotics Challenge 2017 and Amazon Picking Challenge 2016. We compare the results with prior learning based approaches to validate the robustness and adaptive nature of our algorithm for a variety of novel objects in different domains. | 翻訳日:2023-01-13 05:43:48 公開日:2020-01-09 |
# 量子非局所性の2つの対するヤヌス Two faced Janus of quantum nonlocality ( http://arxiv.org/abs/2001.02977v1 ) ライセンス: Link先を確認 | Andrei Khrennikov | (参考訳) この論文は、量子物理学から非局所性を取り除くための新しいステップである。
これは非ローカルな混乱を構造化する試みです。
クァンタム・ノンローカリティ」はジャヌスが直面している。
1つの面は射影(アインシュタイン-L\uders)非局所性、もう1つのベル非局所性である。もう1つは真量子非局所性、もう1つは準量子非局所性である。最近、ベル「非局所性」は相補性原理の単純な結果であることを示した。
射影非局所性は物理的空間とは何の関係も持たないことを示す。
投影状態更新は、古典的推論で使われる確率更新のよく知られた操作の一般化である。
我々は量子状態の解釈の役割を高める。
個々の(物理的)解釈を使用することで、L\ "uders"状態の更新から生じる距離で、スパイクなアクションの錯覚を実際に得ることができる。
The statistical interpretation combined with treating the quantum formalism as machinery for update of probability is known as the V\"axj\"o interpretation. Here one follows the standard scheme of probability update adjusted to the quantum calculus of probability. The latter is based on operating with states represented by vectors (or density operators). We present in parallel classical and quantum probability updates. From this presentation, it is clear that both classical and quantum "faster-than-light change of statistical correlation" take place in mental and not physical space. This paper is a new step towards getting rid of nonlocality from quantum physics. This is an attempt to structure the nonlocality mess. "Quantum nonlocality" is Janus faced. One its face is projection (Einstein-L\"uders) nonlocality and another Bell nonlocality. The first one is genuine quantum nonlocality, the second one is subquantum nonlocality. Recently it was shown that Bell "nonlocality" is a simple consequence of the complementarity principle. We now show that projection nonlocality has no connection with physical space. Projection state update is generalization of the well known operation of probability update used in classical inference. We elevate the role of interpretations of a quantum state. By using the individual (physical) interpretation, one can really get the illusion of a spooky action at a distance resulting from L\"uders' state update. The statistical interpretation combined with treating the quantum formalism as machinery for update of probability is known as the V\"axj\"o interpretation. Here one follows the standard scheme of probability update adjusted to the quantum calculus of probability. The latter is based on operating with states represented by vectors (or density operators). We present in parallel classical and quantum probability updates. From this presentation, it is clear that both classical and quantum "faster-than-light change of statistical correlation" take place in mental and not physical space. | 翻訳日:2023-01-13 05:42:49 公開日:2020-01-09 |
# 中性子による単一画素イメージング Single-Pixel Imaging with Neutrons ( http://arxiv.org/abs/2001.03069v1 ) ライセンス: Link先を確認 | Yu-Hang He, Yi-Yi Huang, Zhi-Rong Zeng, Yi-Fei Li, Jun-Hao Tan, Li-Ming Chen, Ling-An Wu, Ming-Fei Li, Bao-Gang Quan, Song-Lin Wang and Tian-Jiao Liang | (参考訳) 中性子イメージングは、新しい科学を探求し、工業生産を支援するための貴重な非侵襲技術である。
しかし、最先端の中性子施設は非常に高価でアクセスに不便であり、ポータブル中性子源のフラックスは許容できる時間枠内で静止画像を形成するには十分ではない。
空間分解能とエネルギー分解能を兼ね備えた画像を得ることは困難である。
ここでは、古典的振幅変調に基づいて、特別に設計されたマスクを用いた中性子による単一画素イメージング、さらに、スパレーション中性子源を用いたエネルギー選択画像を得る。
100.mu}mの空間分解能と10.mu}の時間分解能(1.AA}での0.4%に相当する)を持つ実複素物体の画像は、3He単画素検出器を用いて得られた。
検出器面の中性子数が平均変調パターンあたり1000に下がったとしても、明確な画像が得られた。
実験装置は単純で安価で操作が容易であるため、中性子イメージングのための新しい経路、特に低強度のポータブル放射性中性子源を指し示しており、生物学、材料科学、工業過程の診断に非常に有用である。 Neutron imaging is an invaluable noninvasive technique for exploring new science and assisting industrial manufacture. However, state-of-the-art neutron facilities are extremely expensive and inconvenient to access, while the flux of portable neutron sources is not strong enough to form even a static image within an acceptable time frame. It is hard to obtain images with both high spatial resolution and energy resolution together. Here, based on classical amplitude modulation, we demonstrate single-pixel imaging with neutrons with specially designed masks and, further, obtain energy-selective images with a spallation neutron source. Images of real complex objects with 100 {\mu}m spatial resolution and 10 {\mu}s time resolution (corresponding to 0.4% at 1 {\AA}) have been obtained using a 3He single-pixel detector. Even when the neutron counts in the detector plane were lowered to 1000 per modulation pattern on average, a clear image was still obtained. The experimental setup is simple, inexpensive and easy to operate, thus our scheme points to a new path for neutron imaging, especially for portable radioactive neutron sources of low intensity, which should be of great benefit for diagnostic analysis in biology, materials science, and industrial processes. | 翻訳日:2023-01-13 05:42:28 公開日:2020-01-09 |
# 共振マイクロ波空洞内の磁場結合による原子マイクロ波-光信号伝達 Atomic microwave-to-optical signal transduction via magnetic-field coupling in a resonant microwave cavity ( http://arxiv.org/abs/2001.03150v1 ) ライセンス: Link先を確認 | A. Tretiakov, C. A. Potts, T. S. Lee, M. J. Thiessen, J. P. Davis, and L. J. LeBlanc | (参考訳) 原子蒸気は、電磁スペクトルの広い範囲にわたって電磁信号を操作する多くの機会を提供する。
ここでは、原子マイクロ波対光二重共鳴と共振高Qマイクロ波空洞で増幅された磁場結合を利用して、オーディオ周波数変調のマイクロ波信号が光信号の情報を符号化する。
このアプローチにより、音声信号はghzキャリアの振幅または周波数変調として符号化され、ケーブルまたは自由空間を介して伝送され、キャビティ強化された原子-マイクロウェーブ相互作用によって復調され、最終的に光学的に検出されて元の情報を抽出する。
この原子キャビティ信号変換技術は、マイクロ波と光電界の間で情報を伝達する強力な手段を提供する。 Atomic vapors offer many opportunities for manipulating electromagnetic signals across a broad range of the electromagnetic spectrum. Here, a microwave signal with an audio-frequency modulation encodes information in an optical signal by exploiting an atomic microwave-to-optical double resonance, and magnetic-field coupling that is amplified by a resonant high-Q microwave cavity. Using this approach, audio signals are encoded as amplitude or frequency modulations in a GHz carrier, transmitted through a cable or over free space, demodulated through cavity-enhanced atom-microwave interactions, and finally, optically detected to extract the original information. This atom-cavity signal transduction technique provides a powerful means by which to transfer information between microwave and optical fields, all using a relatively simple experimental setup without active electronics. | 翻訳日:2023-01-13 05:41:54 公開日:2020-01-09 |
# シリコンフォトニックチップを用いたリング共振器光子対源の位相分解結合スペクトルトモグラフィ Phase resolved joint spectra tomography of a ring resonator photon pair source using a silicon photonic chip ( http://arxiv.org/abs/2001.02901v1 ) ライセンス: Link先を確認 | Massimo Borghi | (参考訳) フォトニック量子技術の指数関数的成長は、情報キャリアの品質を測定するためのツールの需要を押し上げている。
最も顕著なものは、古典的コヒーレント場を用いて光子対の結合スペクトル振幅(jsa)を高速かつ分解能で測定するエミッショントモグラフィ(set)である。
JSAの変調は単一強度測定から直接的に対応できるが、JSP(Joint Spectral Phase)の検索はより困難であり、わずかな注意を払っている。
しかし、チップ集積マイクロ共振器のような様々な自発的な技術関連源は、強度領域に隠された相関を持つ豊富な構造を持つJSPを持つ。
ここでは、コンパクトで再構成可能なシリコンフォトニックチップを用いて、マイクロリング共振器光子対源の複雑なJSAを初めて測定する。
フォトニック回路は、リングと基準導波路とをコヒーレントに励起し、それらの刺激場によって形成された干渉図を用いて、新しい位相再構成技術によりリングJSPをマッピングする。
このツールは、これまで実装されてきた、ばらばらで洗練された手法を補完し、必要なリソースのセットを最小化する。 The exponential growth of photonic quantum technologies is driving the demand of tools for measuring the quality of their information carriers. One of the most prominent is Stimulated Emission Tomography (SET), which uses classical coherent fields to measure the Joint Spectral Amplitude (JSA) of photon pairs with high speed and resolution. While the modulus of the JSA can be directly addressed from a single intensity measurement, the retrieval of the Joint Spectral Phase (JSP) is far more challenging and received minor attentions. However, a wide class of spontaneous sources of technological relevance, as chip integrated micro-resonators, have a JSP with a rich structure, that carries correlations hidden in the intensity domain. Here, using a compact and reconfigurable silicon photonic chip, it is measured for the first time the complex JSA of a micro-ring resonator photon pair source. The photonic circuit coherently excites the ring and a reference waveguide, and the interferogram formed by their stimulated fields is used to map the ring JSP through a novel phase reconstruction technique. This tool complements the traditionally bulky and sophisticated methods implemented so far, simultaneously minimizing the set of required resources. | 翻訳日:2023-01-13 05:34:17 公開日:2020-01-09 |
# 動的ホログラフィック光トワイザーを用いた単一原子運動 Single atom movement with dynamic holographic optical tweezers ( http://arxiv.org/abs/2001.02979v1 ) ライセンス: Link先を確認 | Sergey Samoylenko, Alexey Lisitsin, Danilo Schepanovich, Ivan Bobrov, Stanislav Straupe, Sergei Kulik | (参考訳) 単一閉じ込め原子に対する動的ホログラフィックトウィーザーの実験的実装について報告する。
ツイーザは、液晶空間光変調器に表示された動的位相ホログラムで実現される。
我々は,そのような動的ポテンシャルを持つ単一ルビジウム原子を捕捉・移動させる可能性を実験的に実証し,その限界について検討した。
以上の結果から,ツイーザー内の単一原子の高確率移動は大きなステップで行われ,トラップウエストの方がはるかに大きいことが示唆された。
ホログラフィックトラップにおける強度フリッカとその抑制技術について論じる。
動的ツイーザの損失と加熱速度を測定し,静的トラップと比較して余剰損失や加熱は観測されなかった。 We report an experimental implementation of dynamical holographic tweezers for single trapped atoms. The tweezers are realized with dynamical phase holograms displayed on the liquid crystal spatial light modulator. We experimentally demonstrate the possibility to trap and move single rubidium atoms with such dynamic potentials, and study its limitations. Our results suggest that high probability transfer of single atoms in the tweezers may be performed in large steps, much larger then the trap waist. We discuss intensity-flicker in holographic traps and techniques for its suppression. Loss and heating rates in dynamic tweezers are measured and no excess loss or heating is observed in comparison with static traps. | 翻訳日:2023-01-13 05:33:56 公開日:2020-01-09 |
# 構造型フォトニック貯水池に結合した人工原子の崩壊と再生 Collapse and Revival of an Artificial Atom Coupled to a Structured Photonic Reservoir ( http://arxiv.org/abs/2001.03240v1 ) ライセンス: Link先を確認 | Vinicius S. Ferreira, Jash Banker, Alp Sipahigil, Matthew H. Matheny, Andrew J. Keller, Eunjong Kim, Mohammad Mirhosseini and Oskar Painter | (参考訳) 構造化電磁貯留層は、量子エミッタの新しいダイナミクスをもたらすことができる。
特に、貯水池は典型的なオープンシステムのメモリレスマルコフ力学とは対照的に、過去のエミッターとの相互作用のメモリを持つように調整することができる。
本稿では,超伝導量子ビットの非マルコフ動力学を,超伝導低光導波路貯留層に強く結合する。
この導波管の通過帯域のスペクトル近傍に量子ビットをチューニングすると、非指数エネルギー緩和とクォービット放出率の実質的な変化が分かる。
さらに、導波路の一端に反射境界を付加すると、放射光子の往復移動時間に対応する量子ビット放出率の逆数よりも30倍長い時間スケールで量子ビット人口の再生を観測する。
クビット-導波路相互作用強度のチューニングにより、マルコフと非マルコフのクビット放出ダイナミクスの交叉を探索する。
これらの特性は、構造された貯水池と結合した多光子回路の将来の研究を可能にし、多光子高絡み状態を生成するために必要な資源を構成する。 A structured electromagnetic reservoir can result in novel dynamics of quantum emitters. In particular, the reservoir can be tailored to have a memory of past interactions with emitters, in contrast to memory-less Markovian dynamics of typical open systems. In this Article, we investigate the non-Markovian dynamics of a superconducting qubit strongly coupled to a superconducting slow-light waveguide reservoir. Tuning the qubit into the spectral vicinity of the passband of this waveguide, we find non-exponential energy relaxation as well as substantial changes to the qubit emission rate. Further, upon addition of a reflective boundary to one end of the waveguide, we observe revivals in the qubit population on a timescale 30 times longer than the inverse of the qubit's emission rate, corresponding to the round-trip travel time of an emitted photon. By tuning of the qubit-waveguide interaction strength, we probe a crossover between Markovian and non-Markovian qubit emission dynamics. These attributes allow for future studies of multi-qubit circuits coupled to structured reservoirs, in addition to constituting the necessary resources for generation of multiphoton highly entangled states. | 翻訳日:2023-01-13 05:32:36 公開日:2020-01-09 |
# 放物型媒質中のラゲール・ガウス波伝播 Laguerre-Gaussian wave propagation in parabolic media ( http://arxiv.org/abs/2001.03456v1 ) ライセンス: Link先を確認 | S. Cruz y Cruz, Z. Gress, P. Jimenez-Macias and Oscar Rosas-Ortiz | (参考訳) 我々は, 周期的な自己焦点と有限ビーム幅で伝播するラゲール・ガウス波束を, 弱誘導不均質媒質中で新たに報告する。
これらの波束は、放物型屈折率を持つ媒体の波方程式の同軸形の解である。
ビーム幅は調和振動子に関連するエルマコフ方程式の解として定義されるので、その振幅は媒質不均一性の強さによって変調される。
均質媒質として使用可能な従来のラゲール・ガウシアンモードは、特定の場合として回収される。 We report a new set of Laguerre-Gaussian wave-packets that propagate with periodical self-focusing and finite beam width in weakly guiding inhomogeneous media. These wave-packets are solutions to the paraxial form of the wave equation for a medium with parabolic refractive index. The beam width is defined as a solution of the Ermakov equation associated to the harmonic oscillator, so its amplitude is modulated by the strength of the medium inhomogeneity. The conventional Laguerre-Gaussian modes, available for homogenous media, are recovered as a particular case. | 翻訳日:2023-01-13 05:32:18 公開日:2020-01-09 |
# 平面曲線と一般弾性測定値の比較のための不正確なマッチング手法 An inexact matching approach for the comparison of plane curves with general elastic metrics ( http://arxiv.org/abs/2001.02858v1 ) ライセンス: Link先を確認 | Yashil Sukurdeep, Martin Bauer, Nicolas Charon | (参考訳) 本稿では,入射平面曲線間の距離と測地線を計算するための新しい数学的定式化と数値計算手法を提案する。
提案手法は,最近Kurtek と Needham が導入した一階弾性計量の一般化変換と,パラメトリゼーション不変のフィデリティ指標を用いたマッチング制約の緩和を組み合わせたものである。
この定式化の主な利点は、離散化された曲線に対する単純な最適化問題をもたらし、ノイズ、矛盾、破損したデータを扱う柔軟なアプローチを提供することである。
これらの利点は、いくつかの予備的な数値結果を通じて示される。 This paper introduces a new mathematical formulation and numerical approach for the computation of distances and geodesics between immersed planar curves. Our approach combines the general simplifying transform for first-order elastic metrics that was recently introduced by Kurtek and Needham, together with a relaxation of the matching constraint using parametrization-invariant fidelity metrics. The main advantages of this formulation are that it leads to a simple optimization problem for discretized curves, and that it provides a flexible approach to deal with noisy, inconsistent or corrupted data. These benefits are illustrated via a few preliminary numerical results. | 翻訳日:2023-01-13 05:32:09 公開日:2020-01-09 |
# ニューラルネットワークトモグラフィ Neural Network Tomography ( http://arxiv.org/abs/2001.02942v1 ) ライセンス: Link先を確認 | Liang Ma and Ziyao Zhang and Mudhakar Srivatsa | (参考訳) ネットワーク監視の分野における古典的な研究課題であるネットワークトモグラフィーは、選択されたエンドツーエンド経路測定を用いて、測定されていないネットワーク属性を推測する手法を指す。
研究コミュニティでは、ネットワークトモグラフィは一般に、既知のネットワークトポロジ、相関経路の測定、障害ノード/リンクの有界数、さらには特別なネットワークプロトコルのサポートといった仮定の下で研究されている。
ネットワークトモグラフィーの適用性は、これらの強い仮定によってかなり制限されているため、理論的な世界にしばしば当てはまる。
本稿では,ネットワークトモグラフィを実践的な観点から再考し,これらの仮定やパフォーマンス指標のタイプに依存しない汎用的なフレームワークを確立する。
提案するフレームワークであるNeuTomographyは、サンプリングノードペアのエンドツーエンドパスパフォーマンスメトリクスのみを考慮し、ディープニューラルネットワークとデータ拡張を使用して、ノードペア間の非線形関係と基礎となる未知のトポロジ/ルーティング特性を学習することで、計測されていないパフォーマンスメトリクスを予測する。
加えて、ニュートモグラフィーを用いて元のネットワークトポロジーを再構築することが可能であり、これはほとんどのネットワーク計画タスクにとって重要である。
実ネットワークデータを用いた大規模な実験により,ネットワーク特性の予測とネットワークトポロジの再構成は,限られた測定データのみを用いて極めて高精度かつ堅牢であることがわかった。 Network tomography, a classic research problem in the realm of network monitoring, refers to the methodology of inferring unmeasured network attributes using selected end-to-end path measurements. In the research community, network tomography is generally investigated under the assumptions of known network topology, correlated path measurements, bounded number of faulty nodes/links, or even special network protocol support. The applicability of network tomography is considerably constrained by these strong assumptions, which therefore frequently position it in the theoretical world. In this regard, we revisit network tomography from the practical perspective by establishing a generic framework that does not rely on any of these assumptions or the types of performance metrics. Given only the end-to-end path performance metrics of sampled node pairs, the proposed framework, NeuTomography, utilizes deep neural network and data augmentation to predict the unmeasured performance metrics via learning non-linear relationships between node pairs and underlying unknown topological/routing properties. In addition, NeuTomography can be employed to reconstruct the original network topology, which is critical to most network planning tasks. Extensive experiments using real network data show that comparing to baseline solutions, NeuTomography can predict network characteristics and reconstruct network topologies with significantly higher accuracy and robustness using only limited measurement data. | 翻訳日:2023-01-13 05:25:44 公開日:2020-01-09 |
# 雑音中規模量子コンピュータにおけるクロストークのソフトウェア緩和 Software Mitigation of Crosstalk on Noisy Intermediate-Scale Quantum Computers ( http://arxiv.org/abs/2001.02826v1 ) ライセンス: Link先を確認 | Prakash Murali, David C. McKay, Margaret Martonosi, Ali Javadi-Abhari | (参考訳) Crosstalkは、NISQ(Noisy Intermediate-Scale Quantum)システムの主要なノイズ源であり、ハードウェア設計における根本的な課題である。
複数の命令が並列に実行されると、命令間のクロストークが量子状態を破壊し、誤ったプログラム実行につながる。
私たちの目標は、ソフトウェア技術によるクロストークノイズのアプリケーションへの影響を軽減することです。
これは必要です
(i)ハードウェアクロストークの正確なキャラクタリゼーション
(II) 影響を受ける操作をシリアライズするためのインテリジェントな命令スケジューリング。
クロストークのキャラクタリゼーションは計算コストが高いため,キャラクタリゼーションのオーバーヘッドを低減する最適化を開発する。
3つの20キュービットibmqシステムにおいて,全パイアクロストーク計測と比較して,キャラクタリゼーション時間(qcデバイスでの計算時間)の2桁低減を実証した。
これらの特徴から,クロストークや指数的デコヒーレンスエラーをシリアライズから緩和する必要性をバランスして,高いクロストーク命令を巧みにシリアライズするスケジューラを開発した。
実システム上では,IBM命令スケジューラと比較して,アプリケーション回路のエラー率を最大5.6倍に改善し,実際にほぼ最適のクロストークを緩和する。
より広い視点では、最近、クロストークの緩和が難しいため、qcベンダーは、sparser qubit接続に向かうか、近くの操作をハードウェアで完全に無効にし、パフォーマンスを損なう可能性がある。
私たちの研究は、クロストークエラーのソフトウェア緩和に役立ちます。 Crosstalk is a major source of noise in Noisy Intermediate-Scale Quantum (NISQ) systems and is a fundamental challenge for hardware design. When multiple instructions are executed in parallel, crosstalk between the instructions can corrupt the quantum state and lead to incorrect program execution. Our goal is to mitigate the application impact of crosstalk noise through software techniques. This requires (i) accurate characterization of hardware crosstalk, and (ii) intelligent instruction scheduling to serialize the affected operations. Since crosstalk characterization is computationally expensive, we develop optimizations which reduce the characterization overhead. On three 20-qubit IBMQ systems, we demonstrate two orders of magnitude reduction in characterization time (compute time on the QC device) compared to all-pairs crosstalk measurements. Informed by these characterization, we develop a scheduler that judiciously serializes high crosstalk instructions balancing the need to mitigate crosstalk and exponential decoherence errors from serialization. On real-system runs on three IBMQ systems, our scheduler improves the error rate of application circuits by up to 5.6x, compared to the IBM instruction scheduler and offers near-optimal crosstalk mitigation in practice. In a broader picture, the difficulty of mitigating crosstalk has recently driven QC vendors to move towards sparser qubit connectivity or disabling nearby operations entirely in hardware, which can be detrimental to performance. Our work makes the case for software mitigation of crosstalk errors. | 翻訳日:2023-01-13 05:23:59 公開日:2020-01-09 |
# 置換相とゲンティル統計 Permutation Phase and Gentile Statistics ( http://arxiv.org/abs/2001.02830v1 ) ライセンス: Link先を確認 | Qiang Zhang, Bin Yan | (参考訳) 本稿では,フェルミ統計とボース統計の中間交換位相を持つ同一粒子の単一値多体波動関数を構成する新しい方法を提案する。
交換相は表現指標ではなく置換群の \textit{word metric} であり、2次元のブレイディング群からの任意のオン相を超えることが示されている。
このタイプの波動関数を単粒子状態の直積から構成することにより、有限な \textit{capacity q} - 各量子状態の最大許容粒子占有が自然に生じることが示されている。
置換相とキャパシティの関係が与えられ、交換相と占有数の両方の観点からフェルミオンとボソンを補間する。
これは、 \textit{gentile statistics} に対する量子力学の基礎と、中間統計やエノンを探索するための新しい方向を提供する。 This paper presents a new way to construct single-valued many-body wavefunctions of identical particles with intermediate exchange phases between Fermi and Bose statistics. It is demonstrated that the exchange phase is not a representation character but the \textit{word metric} of the permutation group, beyond the anyon phase from the braiding group in two dimensions. By constructing this type of wavefunction from the direct product of single-particle states, it is shown that a finite \textit{capacity q} -- the maximally allowed particle occupation of each quantum state, naturally arises. The relation between the permutation phase and capacity is given, interpolating between fermions and bosons in the sense of both exchange phase and occupation number. This offers a quantum mechanics foundation for \textit{Gentile statistics} and new directions to explore intermediate statistics and anyons. | 翻訳日:2023-01-13 05:23:37 公開日:2020-01-09 |
# icpeacにおけるアト秒物理の60年 -衝突から超短パルスまで- 60 years of attosecond physics at ICPEAC: from collisions to ultrashort pulses ( http://arxiv.org/abs/2001.02900v1 ) ライセンス: Link先を確認 | Joachim Burgd\"orfer, Christoph Lemell, and Xiao-Min Tong | (参考訳) アト秒物理学の分野は2000年代初頭からほぼ爆発的な成長を遂げており、光子、電子、原子衝突の国際会議(icpeac)への2年連続の貢献の割合が増加している。
後者は、電子とフォトニックダイナミクスの多くの基本的な概念が原子規模の衝突過程と密接に絡み合っているため、偶然ではない。
この実りある関係とその意味を、現在の話題的関心のいくつかの原型的な例の助けを借りて説明する。 The field of attosecond physics has seen an almost explosive growth since the early 2000's and represents by now an increasing fraction of contributions to the bi-annual series of International Conferences of Photonic, Electronic, and Atomic Collisions (ICPEAC). The latter is anything but a coincidence as many of the underlying concepts of electronic and photonic dynamics are closely intertwined with atomic-scale collision processes. We illustrate this fruitful connection and its implications with the help of a few prototypical examples of current topical interest. | 翻訳日:2023-01-13 05:23:01 公開日:2020-01-09 |
# GRIDS: 整数プログラミングによるインタラクティブレイアウト設計 GRIDS: Interactive Layout Design with Integer Programming ( http://arxiv.org/abs/2001.02921v1 ) ライセンス: Link先を確認 | Niraj Dayama, Kashyap Todi, Taru Saarelainen, Antti Oulasvirta | (参考訳) グリッドレイアウトは、スケッチやワイヤーフレーミングの際にユーザーインターフェースを空間的に整理するためにデザイナーによって使用される。
しかし、その設計はほとんど手作業に費やす時間である。
これは組合せの爆発と、アライメント、バランス、位置に対する期待といった複雑な目的のために難しい。
本稿では,多様なグリッドレイアウトを生成するための新しい最適化手法を提案する。
混合整数線形プログラミング(milp)モデルは,要素のパッキング,アライメント,グループ化,優先的な位置決めを保証する,厳密かつ効率的なグリッド生成手法を提供する。
さらに, グリッドレイアウトのインタラクティブな多様化, 拡張, 完了のための手法を提案する(第1報)。
これらの機能は、デザイナーにリアルタイムのレイアウト提案を提供するワイヤーフレーミングツール、grids1を使ってデモされている。
評価実験 (N = 13) と設計研究 (N = 16) から得られた知見を報告する。 Grid layouts are used by designers to spatially organise user interfaces when sketching and wireframing. However, their design is largely time consuming manual work. This is challenging due to combinatorial explosion and complex objectives, such as alignment, balance, and expectations regarding positions. This paper proposes a novel optimisation approach for the generation of diverse grid-based layouts. Our mixed integer linear programming (MILP) model offers a rigorous yet efficient method for grid generation that ensures packing, alignment, grouping, and preferential positioning of elements. Further, we present techniques for interactive diversification, enhancement, and completion of grid layouts (Figure 1). These capabilities are demonstrated using GRIDS1, a wireframing tool that provides designers with real-time layout suggestions. We report findings from a ratings study (N = 13) and a design study (N = 16), lending evidence for the benefit of computational grid generation during early stages of design. | 翻訳日:2023-01-13 05:16:24 公開日:2020-01-09 |
# 新たなコーディングパラダイムVCM: 特徴と信号を超えたスケーラブルなコーディングアプローチ An Emerging Coding Paradigm VCM: A Scalable Coding Approach Beyond Feature and Signal ( http://arxiv.org/abs/2001.03004v1 ) ライセンス: Link先を確認 | Sifeng Xia, Kunchangtai Liang, Wenhan Yang, Ling-Yu Duan and Jiaying Liu | (参考訳) 本稿では,視覚的特徴圧縮と古典的映像符号化のギャップを埋めることを目的とした,新たなMPEG標準化活動であるVCM(Video Coding for Machine)から生じる新たな課題について検討する。
VCMは、機械と人間の視覚の両方において、多かれ少なかれスケーラブルな方法で、コンパクトな信号表現の必要性に対処することを約束している。
この目的を達成するために,予測モデルと生成モデルの強みを活用して,視覚特徴を信号レベルとタスクレベルのコンパクト表現をスケーラブルに接続するブリッジとして機能する,機械と人間の視覚タスクの高度な圧縮技術を同時にサポートする。
具体的には,学習した動きパターンのガイダンスを用いて映像フレームを再構成する条件付き深層生成ネットワークを用いる。
予測モデルを介してスパースモーションパターンを抽出することを学習することにより、ネットワークは、特徴表現をエレガントに活用して、符号化されたキーフレームの出現に依存する生成モデルを介して、to-be-codedフレームの外観を生成する。
一方、スパースモーションパターンはコンパクトで、アクション認識のようなハイレベルな視覚タスクに非常に効果的である。
実験の結果,従来のビデオコーデック(ssimでは0.0063ゲイン)に比べ,高い圧縮ビデオに対する最先端の動作認識性能(認識精度の9.4%向上)とともに,人間と機械の両方に対する符号化信号の有望なパラダイムを示している。 In this paper, we study a new problem arising from the emerging MPEG standardization effort Video Coding for Machine (VCM), which aims to bridge the gap between visual feature compression and classical video coding. VCM is committed to address the requirement of compact signal representation for both machine and human vision in a more or less scalable way. To this end, we make endeavors in leveraging the strength of predictive and generative models to support advanced compression techniques for both machine and human vision tasks simultaneously, in which visual features serve as a bridge to connect signal-level and task-level compact representations in a scalable manner. Specifically, we employ a conditional deep generation network to reconstruct video frames with the guidance of learned motion pattern. By learning to extract sparse motion pattern via a predictive model, the network elegantly leverages the feature representation to generate the appearance of to-be-coded frames via a generative model, relying on the appearance of the coded key frames. Meanwhile, the sparse motion pattern is compact and highly effective for high-level vision tasks, e.g. action recognition. Experimental results demonstrate that our method yields much better reconstruction quality compared with the traditional video codecs (0.0063 gain in SSIM), as well as state-of-the-art action recognition performance over highly compressed videos (9.4% gain in recognition accuracy), which showcases a promising paradigm of coding signal for both human and machine vision. | 翻訳日:2023-01-13 05:15:46 公開日:2020-01-09 |
# Vertebra-Focused Landmark Detection for Scoliosis Assessment Vertebra-Focused Landmark Detection for Scoliosis Assessment ( http://arxiv.org/abs/2001.03187v1 ) ライセンス: Link先を確認 | Jingru Yi, Pengxiang Wu, Qiaoying Huang, Hui Qu, Dimitris N. Metaxas | (参考訳) 思春期特発性強皮症(Adolescent idiopathic scoliosis、AIS)は、小児に発症する一生の疾患である。
コブ角度の正確な推定は臨床医にとって診断と治療の決定に不可欠である。
コブ角は脊椎のランドマークに従って測定される。
既存の回帰に基づく脊椎のランドマーク検出法は、通常、大きな密度のマッピングパラメータと不正確なランドマークの局在に悩まされる。
セグメンテーションに基づく方法は、連結または破損した椎骨マスクを予測する傾向がある。
本稿では,新しい椎骨中心のランドマーク検出法を提案する。
我々のモデルはまず椎骨中心を局在させ、そこから学習されたコーナーオフセットを通して椎骨の4つの角のランドマークを辿る。
このようにして,本手法はランドマークの順序を保つことができる。
その結果,低コントラストおよび無明度X線画像におけるコブ角測定とランドマーク検出の両面での有用性が示された。
コードは: \url{https://github.com/yijingru/Vertebra-Landmark-Detection}で入手できる。 Adolescent idiopathic scoliosis (AIS) is a lifetime disease that arises in children. Accurate estimation of Cobb angles of the scoliosis is essential for clinicians to make diagnosis and treatment decisions. The Cobb angles are measured according to the vertebrae landmarks. Existing regression-based methods for the vertebra landmark detection typically suffer from large dense mapping parameters and inaccurate landmark localization. The segmentation-based methods tend to predict connected or corrupted vertebra masks. In this paper, we propose a novel vertebra-focused landmark detection method. Our model first localizes the vertebra centers, based on which it then traces the four corner landmarks of the vertebra through the learned corner offset. In this way, our method is able to keep the order of the landmarks. The comparison results demonstrate the merits of our method in both Cobb angle measurement and landmark detection on low-contrast and ambiguous X-ray images. Code is available at: \url{https://github.com/yijingru/Vertebra-Landmark-Detection}. | 翻訳日:2023-01-13 05:14:51 公開日:2020-01-09 |
# ドローンキャプチャ画像を用いた画素レベル舗装き裂の深部ニューラルネットワークによる解析 A Deep Neural Networks Approach for Pixel-Level Runway Pavement Crack Segmentation Using Drone-Captured Images ( http://arxiv.org/abs/2001.03257v1 ) ライセンス: Link先を確認 | Liming Jiang, Yuanchang Xie, Tianzhu Ren | (参考訳) 舗装条件は資産管理の重要な側面であり、安全に直接影響を及ぼす。
本研究では, 空港滑走路検査に要するコストと時間を削減するために, ドローンキャプチャ画像に基づく舗装クラックセグメンテーションのためのU-Netと呼ばれるディープニューラルネットワーク手法を提案する。
提案手法は,道路上に車両が少ないオフピーク時間における高速道路舗装条件の評価にも利用できる。
本研究では,マサチューセッツ州のフィッチバーグ市民空港(fma)から,様々な高さのドローンを用いて滑走路舗装画像を収集し,そのクラックセグメンテーションの品質と適用性を評価し,最適な高さを求める。
次に、最適な高さで撮影したドローン画像を用いて、U-Netモデルのひび割れセグメンテーション性能を評価する。
ディープラーニングの手法は一般的に、モデル開発のための膨大なアノテートされたトレーニングデータセットを必要とします。
オンラインアノテートされた舗装画像データセットとFMAデータを組み合わせてU-Netモデルをトレーニングする。
その結果,U-NetはFMA訓練画像が限られていてもFMA試験データで良好に動作し,空港滑走路と高速道路舗装の両方に活用できる可能性が示唆された。 Pavement conditions are a critical aspect of asset management and directly affect safety. This study introduces a deep neural network method called U-Net for pavement crack segmentation based on drone-captured images to reduce the cost and time needed for airport runway inspection. The proposed approach can also be used for highway pavement conditions assessment during off-peak periods when there are few vehicles on the road. In this study, runway pavement images are collected using drone at various heights from the Fitchburg Municipal Airport (FMA) in Massachusetts to evaluate their quality and applicability for crack segmentation, from which an optimal height is determined. Drone images captured at the optimal height are then used to evaluate the crack segmentation performance of the U-Net model. Deep learning methods typically require a huge set of annotated training datasets for model development, which can be a major obstacle for their applications. An online annotated pavement image dataset is used together with the FMA data to train the U-Net model. The results show that U-Net performs well on the FMA testing data even with limited FMA training images, suggesting that it has good generalization ability and great potential to be used for both airport runways and highway pavements. | 翻訳日:2023-01-13 05:14:36 公開日:2020-01-09 |
# 学習技術における会話探索 Conversational Search for Learning Technologies ( http://arxiv.org/abs/2001.02912v1 ) ライセンス: Link先を確認 | Sharon Oviatt and Laure Soulier | (参考訳) 会話探索は,情報探索課題の解決を目的としたユーザシステム連携に基づく。
本稿では,ユーザ側とシステム側の両方からの学習の視点から,このような連携がもたらす意味について論じる。
また,会話検索の重要な要素,すなわちコミュニケーションのマルチモーダル性を通じて学習を促すことに焦点を当て,情報検索の観点からその意味を議論する。
将来的な研究の方向性と展望を説明した研究道路図で締めくくります。 Conversational search is based on a user-system cooperation with the objective to solve an information-seeking task. In this report, we discuss the implication of such cooperation with the learning perspective from both user and system side. We also focus on the stimulation of learning through a key component of conversational search, namely the multimodality of communication way, and discuss the implication in terms of information retrieval. We end with a research road map describing promising research directions and perspectives. | 翻訳日:2023-01-13 05:13:54 公開日:2020-01-09 |
# CrDoCo: クロスドメイン一貫性を持つ画素レベルのドメイン転送 CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency ( http://arxiv.org/abs/2001.03182v1 ) ライセンス: Link先を確認 | Yun-Chun Chen, Yen-Yu Lin, Ming-Hsuan Yang, Jia-Bin Huang | (参考訳) 教師なしドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメイン(例えば合成画像から実画像)に転送することを目的としている。
適応表現はしばしば、密集した予測タスク(例えば意味セグメンテーション)に不可欠なピクセルレベルの領域シフトをキャプチャしない。
本稿では,新しい画素単位の対角領域適応アルゴリズムを提案する。
データ拡張のために画像から画像への変換方法を活用することで、ドメイン間の翻訳画像はスタイルによって異なるかもしれないが、タスクに対する予測は一貫性があるべきである、という洞察を得る。
我々は、この特性を利用して、一貫性のある予測を生成するために適応モデルを強制するクロスドメイン整合性損失を導入します。
その結果,本手法は様々な非教師付きドメイン適応タスクにおいて,最先端と好適に比較できることがわかった。 Unsupervised domain adaptation algorithms aim to transfer the knowledge learned from one domain to another (e.g., synthetic to real images). The adapted representations often do not capture pixel-level domain shifts that are crucial for dense prediction tasks (e.g., semantic segmentation). In this paper, we present a novel pixel-wise adversarial domain adaptation algorithm. By leveraging image-to-image translation methods for data augmentation, our key insight is that while the translated images between domains may differ in styles, their predictions for the task should be consistent. We exploit this property and introduce a cross-domain consistency loss that enforces our adapted model to produce consistent predictions. Through extensive experimental results, we show that our method compares favorably against the state-of-the-art on a wide variety of unsupervised domain adaptation tasks. | 翻訳日:2023-01-13 05:05:59 公開日:2020-01-09 |
# MatrixNets: オブジェクト検出のための新しいスケールとアスペクト比アウェアアーキテクチャ MatrixNets: A New Scale and Aspect Ratio Aware Architecture for Object Detection ( http://arxiv.org/abs/2001.03194v1 ) ライセンス: Link先を確認 | Abdullah Rashwan, Rishav Agarwal, Agastya Kalra, and Pascal Poupart | (参考訳) オブジェクト検出のための新しいディープアーキテクチャであるMatrixNets(xNets)を提案する。
xNetsは、同様のサイズとアスペクト比のオブジェクトを多くの特殊なレイヤにマッピングし、xNetsはスケールとアスペクト比を意識したアーキテクチャを提供する。
我々はxnetsを利用してsingle-stage object detectionフレームワークを強化した。
まず、xNetsをアンカーベースのオブジェクト検出に適用し、オブジェクト中心を予測し、左上隅と右下隅を回帰する。
第2に,左上と右下角を予測し,角に基づく物体検出にマトリクスネットを用いる。
各コーナーはオブジェクトの中心位置を予測します。
また,埋め込み層を中心回帰に置き換えることで,コーナーベース検出を強化する。
最終アーキテクチャはMS COCO上の47.8mAPであり、CornerNetの+5.6mAPよりも高いが、同時に単段検出器と二段検出器のギャップを埋める。
コードはhttps://github.com/arashwan/matrixnetで入手できる。 We present MatrixNets (xNets), a new deep architecture for object detection. xNets map objects with similar sizes and aspect ratios into many specialized layers, allowing xNets to provide a scale and aspect ratio aware architecture. We leverage xNets to enhance single-stage object detection frameworks. First, we apply xNets on anchor-based object detection, for which we predict object centers and regress the top-left and bottom-right corners. Second, we use MatrixNets for corner-based object detection by predicting top-left and bottom-right corners. Each corner predicts the center location of the object. We also enhance corner-based detection by replacing the embedding layer with center regression. Our final architecture achieves mAP of 47.8 on MS COCO, which is higher than its CornerNet counterpart by +5.6 mAP while also closing the gap between single-stage and two-stage detectors. The code is available at https://github.com/arashwan/matrixnet. | 翻訳日:2023-01-13 05:05:46 公開日:2020-01-09 |
# 代数場理論における時間生成入門 An Introduction to time generation on Algebraic Quantum Field Theory ( http://arxiv.org/abs/2001.02806v1 ) ライセンス: Link先を確認 | Tadashi Fujimoto | (参考訳) 2000年代初頭、時間演算子の研究は、時間問題を数学的科学として理解するための方法の1つとして進歩した。
しかし、時間演算子の出発点は、時間を観察の問題(粒子の生存確率)として理解することであり、今日では時間演算子の表現の問題が終わった後も、哲学的解釈の問題が残っている。
さらに、時間生成(緊急)の問題に関して、時間演算子の方法には制限がある。
時間の生成については、粒子物理学における対称性の破れは密接に関連しているようである。 In the early 2000s, the study of time operators advanced as one of the methods to understand the problem of time as mathematical science. However, the starting point for the time operator is to understand time as a problem of observation (the survival probabilityof particles), and today, even after the issue of representation on time operator has concluded, the question of philosophical interpretation still exists. Furthermore, when it comes to the question of how time generation (emergence), the method of time operators has its limitations. Regarding the generation of time, symmetry breaking in particle physics seems to be closely related. | 翻訳日:2023-01-13 05:05:21 公開日:2020-01-09 |
# グラウバー・フォックキャビティアレーにおける完全量子状態転移 Perfect Quantum State Transfer in Glauber-Fock Cavity Array ( http://arxiv.org/abs/2001.03467v1 ) ライセンス: Link先を確認 | Nilakantha Meher | (参考訳) 結合強度が正方根則を満たす1次元有限グラウバー・フォックキャビティアレイにおける単一光子の移動について検討した。
配列内の進化した状態は、キャビティが共振している場合、上部の切断されたコヒーレント状態にマッピングすることができる。
共鳴周波数の適切な選択は、配列内の任意の2つの空洞の間の光子の完全移動をもたらす。
光子の完全移動は、空洞間の完全な量子状態移動を可能にする。
我々の発見は、フォトニック格子における量子通信と情報処理の実現に役立つかもしれない。 We study transfer of single photon in an one-dimensional finite Glauber-Fock cavity array whose coupling strengths satisfy a square root law. The evolved state in the array can be mapped to an upper truncated coherent state if the cavities are resonant. Appropriate choices of resonance frequencies provide perfect transfer of a photon between any two cavities in the array. Perfect transfer of the photon allows perfect quantum state transfer between the cavities. Our findings may help in realizing quantum communication and information processing in photonic lattices. | 翻訳日:2023-01-13 05:04:52 公開日:2020-01-09 |
# 地域探索における近隣住民の類似性特性 The Neighbours' Similar Fitness Property for Local Search ( http://arxiv.org/abs/2001.02872v1 ) ライセンス: Link先を確認 | Mark Wallace and Aldeida Aleti | (参考訳) ほとんどの実用的な最適化問題に対して、局所探索は「No Free Lunch Theorem」にもかかわらずランダムサンプリングよりも優れている。
本稿では,NSF (Nighbours' similar Fitness) と呼ばれる,地域的改善の観点から,近隣検索の優れた性能の基盤となる検索景観の特性を紹介する。
NSFは、良い解の隣人の間で改善を求めるのがランダムな探索より優れていることを保証するのに十分ではない。
本稿では,NSFの景観において,近隣の探索がランダム検索に勝るという一般的な証明を支持する,追加の(自然な)特性を紹介する。 For most practical optimisation problems local search outperforms random sampling - despite the "No Free Lunch Theorem". This paper introduces a property of search landscapes termed Neighbours' Similar Fitness (NSF) that underlies the good performance of neighbourhood search in terms of local improvement. Though necessary, NSF is not sufficient to ensure that searching for improvement among the neighbours of a good solution is better than random search. The paper introduces an additional (natural) property which supports a general proof that, for NSF landscapes, neighbourhood search beats random search. | 翻訳日:2023-01-13 05:04:46 公開日:2020-01-09 |
# 製品割当のための空間需要の確率論的シミュレータ A Probabilistic Simulator of Spatial Demand for Product Allocation ( http://arxiv.org/abs/2001.03210v1 ) ライセンス: Link先を確認 | Porter Jenkins, Hua Wei, J. Stockton Jenkins, Zhenhui Li | (参考訳) 消費者と関連する製品を結びつけることは、オンラインおよびオフラインのコマースにおいて非常に重要な問題である。
物理小売では、製品配置は消費者と製品を結びつける効果的な方法である。
しかし、店内の製品場所を選択するのは面倒な作業である。
さらに、オフライン小売における重要な空間パターンの学習は、データの不足と、物理世界の探索と実験のコストが高いため困難である。
これらの課題に対処するため,我々は物理小売における空間需要の確率モデルを提案する。
提案モデルは,既存のベースラインよりも需要の予測性が高いことを示す。
また、異なる自動化技術に関する予備的研究を行い、Deep Q-Learningを通じて最適な製品割当ポリシーを学習できることを示します。 Connecting consumers with relevant products is a very important problem in both online and offline commerce. In physical retail, product placement is an effective way to connect consumers with products. However, selecting product locations within a store can be a tedious process. Moreover, learning important spatial patterns in offline retail is challenging due to the scarcity of data and the high cost of exploration and experimentation in the physical world. To address these challenges, we propose a stochastic model of spatial demand in physical retail. We show that the proposed model is more predictive of demand than existing baselines. We also perform a preliminary study into different automation techniques and show that an optimal product allocation policy can be learned through Deep Q-Learning. | 翻訳日:2023-01-13 04:59:09 公開日:2020-01-09 |
# 動物再同定のための学習用ランドマーク埋め込み Learning landmark guided embeddings for animal re-identification ( http://arxiv.org/abs/2001.02801v1 ) ライセンス: Link先を確認 | Olga Moskvyak, Frederic Maire, Feras Dayoub and Mahsa Baktashmotlagh | (参考訳) 画像中の個々の動物の再識別は、異なる個体間の微妙な体格変化のため、野生の動物のポーズに制約がないため、曖昧である。
人物の再識別は類似のタスクであり、人の画像に対する識別的埋め込みを学習する深層畳み込みニューラルネットワーク(CNN)によってアプローチされてきた。
しかし, 個体の識別的特徴の学習は, 個体の身長のラベル付きデータセットと比較すると, 生態的データセットのサイズが比較的小さいため, 見た目よりも困難である。
身体のランドマーク情報を明示的に活用して埋め込み学習を改善することを提案する。
ボディランドマークは、別個のボディランドマーク予測器から得られる信頼ヒートマップとしてCNNの入力に提供される。
このモデルは、入力ヒートマップを再構築する補助的なタスクを学ぶことで、ヒートマップの使用を奨励する。
ボディランドマークは特徴抽出ネットワークを誘導し、識別されたパターンとそのボディ上の位置の表現を学ぶ。
提案手法は,大規模合成データセットと小型実データを用いて評価する。
本手法は, 合成データと実データで, ボディランドマークを26%, 18%の差で入力することなく, 同一モデルを上回る。
この方法は入力座標におけるノイズに対して堅牢であり、画像サイズの最大10%の座標における誤差を許容することができる。 Re-identification of individual animals in images can be ambiguous due to subtle variations in body markings between different individuals and no constraints on the poses of animals in the wild. Person re-identification is a similar task and it has been approached with a deep convolutional neural network (CNN) that learns discriminative embeddings for images of people. However, learning discriminative features for an individual animal is more challenging than for a person's appearance due to the relatively small size of ecological datasets compared to labelled datasets of person's identities. We propose to improve embedding learning by exploiting body landmarks information explicitly. Body landmarks are provided to the input of a CNN as confidence heatmaps that can be obtained from a separate body landmark predictor. The model is encouraged to use heatmaps by learning an auxiliary task of reconstructing input heatmaps. Body landmarks guide a feature extraction network to learn the representation of a distinctive pattern and its position on the body. We evaluate the proposed method on a large synthetic dataset and a small real dataset. Our method outperforms the same model without body landmarks input by 26% and 18% on the synthetic and the real datasets respectively. The method is robust to noise in input coordinates and can tolerate an error in coordinates up to 10% of the image size. | 翻訳日:2023-01-13 04:58:57 公開日:2020-01-09 |
# 画像認識のためのマルチスケール重み共有ネットワーク Multi-Scale Weight Sharing Network for Image Recognition ( http://arxiv.org/abs/2001.02816v1 ) ライセンス: Link先を確認 | Shubhra Aich, Ian Stavness, Yasuhiro Taniguchi, Masaki Yamazaki | (参考訳) 本稿では,畳み込みネットワークにおける複数スケールの重み共有について検討する。
従来のコンピュータビジョンアプローチにインスパイアされた私たちは、ネットワークの同じ層における異なるスケールでの畳み込みカーネルの重みを共有します。
畳み込みネットワーク内のマルチスケール特徴の集約と共有は一般的に行われているが、畳み込みの重み付けの問題を扱った先行研究は行われていない。
本研究では,画像認識データセットであるimagenet (object recognition) とplaces365-standard (scene classification) の重み共有方式を評価する。
約25%のパラメータで、共有重みのresnetモデルはベースラインのresnetと同じようなパフォーマンスを提供します。
共有ウェイトモデルは、caltech256とstanford 40 actions(object-centric)とsun397とmit inddor67(scene-centric)の4つの画像認識データセットで転送学習実験を通じてさらに検証される。
実験の結果、より深いネットワークのバニラ実装における著しい冗長性が示され、またパラメータ当たりの受容場の増加へのシフトが、将来の畳み込みネットワークアーキテクチャを改善する可能性も示唆された。 In this paper, we explore the idea of weight sharing over multiple scales in convolutional networks. Inspired by traditional computer vision approaches, we share the weights of convolution kernels over different scales in the same layers of the network. Although multi-scale feature aggregation and sharing inside convolutional networks are common in practice, none of the previous works address the issue of convolutional weight sharing. We evaluate our weight sharing scheme on two heterogeneous image recognition datasets - ImageNet (object recognition) and Places365-Standard (scene classification). With approximately 25% fewer parameters, our shared-weight ResNet model provides similar performance compared to baseline ResNets. Shared-weight models are further validated via transfer learning experiments on four additional image recognition datasets - Caltech256 and Stanford 40 Actions (object-centric) and SUN397 and MIT Inddor67 (scene-centric). Experimental results demonstrate significant redundancy in the vanilla implementations of the deeper networks, and also indicate that a shift towards increasing the receptive field per parameter may improve future convolutional network architectures. | 翻訳日:2023-01-13 04:58:39 公開日:2020-01-09 |
# 骨格化アルゴリズム評価のための新しい木構造点クラウドデータセット A novel tree-structured point cloud dataset for skeletonization algorithm evaluation ( http://arxiv.org/abs/2001.02823v1 ) ライセンス: Link先を確認 | Yan Lin and Ji Liu and Jianlin Zhou | (参考訳) 不整点雲からの曲線スケルトン抽出はコンピュータビジョンと3次元データ前処理と可視化の基本課題である。
ポイントクラウドからスケルトンを抽出するために、多くの作業が行われました。
しかし 地上の真実の骨格を持つ 点雲の標準データセットが 欠如しているため これらのアルゴリズムを評価するのが困難です
本稿では,地上の真理スケルトンや点クラウドモデルを含む,新たなツリー構造化点クラウドデータセットを構築する。
さらに、4種類のポイントクラウドがクリーンポイントクラウド上に構築されている。ノイズのあるポイントクラウド、データ不足のポイントクラウド、密度の異なるポイントクラウド、密度分布の不均一なポイントクラウドである。
まずツリーエディタを使ってツリースケルトンと対応するメッシュモデルを構築します。
暗黙曲面は複素分岐モデルのエッジと詳細を保持するのに十分表現できるので、暗黙曲面を用いて三角メッシュをモデル化する。
暗黙的な表面では、仮想スキャナがポイントクラウドのサンプリングに適用される。
最後に,スケルトン抽出の課題を考慮し,4種類のポイントクラウドモデルを構築するための異なる手法を提案する。
このデータセットは、骨格抽出アルゴリズムの標準データセットとして使用できる。
また, 抽出した骨格と比較することにより, 骨格抽出アルゴリズム間の評価を行うことができる。 Curve skeleton extraction from unorganized point cloud is a fundamental task of computer vision and three-dimensional data preprocessing and visualization. A great amount of work has been done to extract skeleton from point cloud. but the lack of standard datasets of point cloud with ground truth skeleton makes it difficult to evaluate these algorithms. In this paper, we construct a brand new tree-structured point cloud dataset, including ground truth skeletons, and point cloud models. In addition, four types of point cloud are built on clean point cloud: point clouds with noise, point clouds with missing data, point clouds with different density, and point clouds with uneven density distribution. We first use tree editor to build the tree skeleton and corresponding mesh model. Since the implicit surface is sufficiently expressive to retain the edges and details of the complex branches model, we use the implicit surface to model the triangular mesh. With the implicit surface, virtual scanner is applied to the sampling of point cloud. Finally, considering the challenges in skeleton extraction, we introduce different methods to build four different types of point cloud models. This dataset can be used as standard dataset for skeleton extraction algorithms. And the evaluation between skeleton extraction algorithms can be performed by comparing the ground truth skeleton with the extracted skeleton. | 翻訳日:2023-01-13 04:58:18 公開日:2020-01-09 |
# 条件付き回転角推定による半教師あり学習 Semi-supervised Learning via Conditional Rotation Angle Estimation ( http://arxiv.org/abs/2001.02865v1 ) ライセンス: Link先を確認 | Hai-Ming Xu, Lingqiao Liu, Dong Gong | (参考訳) 自己教師付き学習(self-supervised learning, slfsl)は、人間のアノテーションなしで巧みにデザインされた前文タスクを通して特徴表現を学習することを目的としており、ここ数年で説得力のある進歩を遂げている。
SlfSLは、ラベルのないデータを利用するための新しいパラダイムを提供するため、半教師付き学習(SemSL)のための有望なソリューションとして認識されている。
この研究は、SlfSLとSemSLを結合させることによって、この方向性をさらに探求する。
我々は,semslにおける予測対象をslfsl目標の予測因子の潜在因子としてモデル化できることを考察した。
潜伏因子のMarginalizingは、これらの2つの学習プロセスの予測ターゲットを結婚させる新しい定式化を自然に引き起こす。
本手法は,SlfSL法(回転角予測)を用いて実装することにより,条件回転角推定(CRAE)と呼ばれる新しいSemSL法を作成する。
特に、CRAEは、候補画像クラスに条件付き画像回転角を予測するモジュールを採用することで特徴付けられる。
実験により,CRAEはSlfSLとSemSLを組み合わせた他の既存手法よりも優れた性能を示した。
CRAEをさらに強化するため,基礎CRAEにおけるSemSLターゲットとSlfSLターゲットの結合を強化する2つの拡張を提案する。
これにより,最先端のSemSL性能を実現するCRAE法が改良されることを示す。 Self-supervised learning (SlfSL), aiming at learning feature representations through ingeniously designed pretext tasks without human annotation, has achieved compelling progress in the past few years. Very recently, SlfSL has also been identified as a promising solution for semi-supervised learning (SemSL) since it offers a new paradigm to utilize unlabeled data. This work further explores this direction by proposing to couple SlfSL with SemSL. Our insight is that the prediction target in SemSL can be modeled as the latent factor in the predictor for the SlfSL target. Marginalizing over the latent factor naturally derives a new formulation which marries the prediction targets of these two learning processes. By implementing this idea through a simple-but-effective SlfSL approach -- rotation angle prediction, we create a new SemSL approach called Conditional Rotation Angle Estimation (CRAE). Specifically, CRAE is featured by adopting a module which predicts the image rotation angle conditioned on the candidate image class. Through experimental evaluation, we show that CRAE achieves superior performance over the other existing ways of combining SlfSL and SemSL. To further boost CRAE, we propose two extensions to strengthen the coupling between SemSL target and SlfSL target in basic CRAE. We show that this leads to an improved CRAE method which can achieve the state-of-the-art SemSL performance. | 翻訳日:2023-01-13 04:57:59 公開日:2020-01-09 |
# 深部プラスチック手術 : 人間のスケッチによるロバストで制御可能な画像編集 Deep Plastic Surgery: Robust and Controllable Image Editing with Human-Drawn Sketches ( http://arxiv.org/abs/2001.02890v1 ) ライセンス: Link先を確認 | Shuai Yang, Zhangyang Wang, Jiaying Liu, Zongming Guo | (参考訳) スケッチベースの画像編集は、人間が描いたスケッチの構造情報に基づいて写真を合成し、修正することを目的としている。
スケッチは収集が難しいため、従来の手法は主にスケッチではなくエッジマップを使用してモデルを訓練する(エッジベースモデルと呼ばれる)。
しかし、スケッチはエッジマップと大きな構造的不一致を示し、エッジベースのモデルに失敗する。
さらに、スケッチは異なるユーザ間で多種多様であり、編集モデルが動作するように、さらに高い一般化性と堅牢性を要求している。
本稿では,手書きスケッチ入力を用いて画像のインタラクティブな編集を可能にする,新しい,堅牢で制御可能な画像編集フレームワークであるDeep Plastic Surgeryを提案する。
そこで,本研究では,アーティストの粗細な描画プロセスに触発されたスケッチリファインメント戦略を提案し,実際のスケッチトレーニングデータを必要としないカジュアルなスケッチや多彩なスケッチへの適応を支援する。
このモデルではさらに,最終的な出力に対して,入力スケッチがどの程度「信頼できる」べきかを柔軟に定義できる改良レベル制御パラメータも提供し,スケッチの忠実さと実効性(入力スケッチが貧弱であれば2つの目標が矛盾する可能性があるため)のバランスをとる。
マルチレベル化を実現するために,singeネットワークにおける異なるレベルに対する適応的な特徴表現を可能にする,レベルコンディショニングのためのスタイルベースモジュールを提案する。
画像編集の視覚的品質とユーザコントロールの精度を,最先端の手法よりも向上させる上でのアプローチの優位性を示した。 Sketch-based image editing aims to synthesize and modify photos based on the structural information provided by the human-drawn sketches. Since sketches are difficult to collect, previous methods mainly use edge maps instead of sketches to train models (referred to as edge-based models). However, sketches display great structural discrepancy with edge maps, thus failing edge-based models. Moreover, sketches often demonstrate huge variety among different users, demanding even higher generalizability and robustness for the editing model to work. In this paper, we propose Deep Plastic Surgery, a novel, robust and controllable image editing framework that allows users to interactively edit images using hand-drawn sketch inputs. We present a sketch refinement strategy, as inspired by the coarse-to-fine drawing process of the artists, which we show can help our model well adapt to casual and varied sketches without the need for real sketch training data. Our model further provides a refinement level control parameter that enables users to flexibly define how "reliable" the input sketch should be considered for the final output, balancing between sketch faithfulness and output verisimilitude (as the two goals might contradict if the input sketch is drawn poorly). To achieve the multi-level refinement, we introduce a style-based module for level conditioning, which allows adaptive feature representations for different levels in a singe network. Extensive experimental results demonstrate the superiority of our approach in improving the visual quality and user controllablity of image editing over the state-of-the-art methods. | 翻訳日:2023-01-13 04:57:29 公開日:2020-01-09 |
# メタラーニングによる脱音のための自己教師付き高速適応 Self-Supervised Fast Adaptation for Denoising via Meta-Learning ( http://arxiv.org/abs/2001.02899v1 ) ライセンス: Link先を確認 | Seunghwan Lee, Donghyeon Cho, Jiwon Kim, Tae Hyun Kim | (参考訳) ノイズの特定の統計的仮定の下では、真にクリーンな画像のないネットワークパラメータを学習するために、最近の自己教師付きアプローチが導入されており、これらの手法はテスト時に与えられた入力(内部統計)から得られる情報を利用することで、イメージを復元することができる。
しかし, 自己指導手法は, 多数の外部トレーニングサンプルを用いて, 従来の聴覚訓練手法と組み合わせられていない。
そこで本稿では,ネットワークアーキテクチャを変更することなく,与えられた入力にネットワークパラメータを適応させることにより,最先端の教師付きdenoising手法を大幅に上回る新しいdenoising手法を提案する。
さらに,テスト時に特定の入力にパラメータを迅速に適応させるメタ学習アルゴリズムを提案する。
提案手法は,新たなパラメータを伴わずに最先端のデノベーションネットワークに容易に適用でき,多数のベンチマークデータセット上で最先端の性能を実現することができることを示す。 Under certain statistical assumptions of noise, recent self-supervised approaches for denoising have been introduced to learn network parameters without true clean images, and these methods can restore an image by exploiting information available from the given input (i.e., internal statistics) at test time. However, self-supervised methods are not yet combined with conventional supervised denoising methods which train the denoising networks with a large number of external training samples. Thus, we propose a new denoising approach that can greatly outperform the state-of-the-art supervised denoising methods by adapting their network parameters to the given input through selfsupervision without changing the networks architectures. Moreover, we propose a meta-learning algorithm to enable quick adaptation of parameters to the specific input at test time. We demonstrate that the proposed method can be easily employed with state-of-the-art denoising networks without additional parameters, and achieve state-of-the-art performance on numerous benchmark datasets. | 翻訳日:2023-01-13 04:57:03 公開日:2020-01-09 |
# 教師なしドメイン適応のための擬似ラベル再構成 Generative Pseudo-label Refinement for Unsupervised Domain Adaptation ( http://arxiv.org/abs/2001.02950v1 ) ライセンス: Link先を確認 | Pietro Morerio, Riccardo Volpi, Ruggero Ragonesi, Vittorio Murino | (参考訳) 本研究では,条件付き生成逆数ネットワーク(cGAN)の条件付きラベルにおけるノイズに対する固有のレジリエンスを調査・特徴付け,この事実をUnsupervised Domain Adaptation (UDA) の文脈で活用する。
UDAでは、ラベル付きソースセットでトレーニングされた分類器を使用して、未ラベルのターゲットセット上で擬似ラベルを推論することができる。
しかし、これは、ターゲットセットの接地ラベルにおけるノイズ注入として解釈できる(よく知られたドメインシフトの問題による)相当量の誤分類の例をもたらすことになる。
このような「シフトノイズ」に対してcGANはある程度頑健であることを示す。
実際、ノイズの多い擬似ラベルで訓練されたcGANは、そのようなノイズをフィルタリングし、よりクリーンなターゲットサンプルを生成することができる。
この発見を、生成モデルと分類器が共同で訓練された反復的な手順で活用する: 生成器は、ターゲットの分布からクリーンなデータをサンプリングし、分類器は、ターゲットのサンプルにより良いラベルを関連付け、ターゲットの擬似ラベルを徐々に精製する。
共通ベンチマークの結果,本手法は美術品の教師なしドメイン適応状態とよく,あるいは相容れない性能を示す。 We investigate and characterize the inherent resilience of conditional Generative Adversarial Networks (cGANs) against noise in their conditioning labels, and exploit this fact in the context of Unsupervised Domain Adaptation (UDA). In UDA, a classifier trained on the labelled source set can be used to infer pseudo-labels on the unlabelled target set. However, this will result in a significant amount of misclassified examples (due to the well-known domain shift issue), which can be interpreted as noise injection in the ground-truth labels for the target set. We show that cGANs are, to some extent, robust against such "shift noise". Indeed, cGANs trained with noisy pseudo-labels, are able to filter such noise and generate cleaner target samples. We exploit this finding in an iterative procedure where a generative model and a classifier are jointly trained: in turn, the generator allows to sample cleaner data from the target distribution, and the classifier allows to associate better labels to target samples, progressively refining target pseudo-labels. Results on common benchmarks show that our method performs better or comparably with the unsupervised domain adaptation state of the art. | 翻訳日:2023-01-13 04:56:07 公開日:2020-01-09 |
# シーン対称性を考慮した単一視野正規場からの球面画像生成 Spherical Image Generation from a Single Normal Field of View Image by Considering Scene Symmetry ( http://arxiv.org/abs/2001.02993v1 ) ライセンス: Link先を確認 | Takayuki Hara and Tatsuya Harada | (参考訳) 全方向(360度)で撮影された球面画像は、被写体と空間そのものの周囲を表現でき、没入的な体験を視聴者に提供する。
単一正常視野(NFOV)画像から球面画像を生成するのは便利であり、特定のパノラマカメラを使用する必要や複数の方向からの画像を撮影する必要がなくなるため、使用シナリオを大幅に拡張するが、それでも困難な問題であり未解決である。
主な課題は、所望の可算球面画像の全方向を含む広い範囲を生成することに関わる高い自由度を制御することである。
一方、シーン対称性は回転対称性、平面対称性、非対称性のような球面像の大域構造の基本的な性質である。
本研究では,単一NFOV画像から球面画像を生成する手法を提案し,シーン対称性を用いて生成領域の自由度を制御する。
条件付き変分オートエンコーダに潜在変数としてシーン対称性パラメータを組み込み,nfov画像に対する球面画像の条件付き確率とシーン対称性を学習する。
さらに、確率密度関数はニューラルネットワークを用いて表現され、隠れ変数の円形シフトとフリップの両方を用いてシーン対称性が実装される。
実験により,提案手法は対称から非対称まで制御可能な様々な球面画像を生成することができることを示した。 Spherical images taken in all directions (360 degrees) allow representing the surroundings of the subject and the space itself, providing an immersive experience to the viewers. Generating a spherical image from a single normal-field-of-view (NFOV) image is convenient and considerably expands the usage scenarios because there is no need to use a specific panoramic camera or take images from multiple directions; however, it is still a challenging and unsolved problem. The primary challenge is controlling the high degree of freedom involved in generating a wide area that includes the all directions of the desired plausible spherical image. On the other hand, scene symmetry is a basic property of the global structure of the spherical images, such as rotation symmetry, plane symmetry and asymmetry. We propose a method to generate spherical image from a single NFOV image, and control the degree of freedom of the generated regions using scene symmetry. We incorporate scene-symmetry parameters as latent variables into conditional variational autoencoders, following which we learn the conditional probability of spherical images for NFOV images and scene symmetry. Furthermore, the probability density functions are represented using neural networks, and scene symmetry is implemented using both circular shift and flip of the hidden variables. Our experiments show that the proposed method can generate various plausible spherical images, controlled from symmetric to asymmetric. | 翻訳日:2023-01-13 04:50:46 公開日:2020-01-09 |
# ニューラルネットワークによるカメラベース適応軌道誘導 Camera-Based Adaptive Trajectory Guidance via Neural Networks ( http://arxiv.org/abs/2001.03205v1 ) ライセンス: Link先を確認 | Aditya Rajguru, Christopher Collander, William J. Beksi | (参考訳) 本稿では,ストリーミング画像データを用いて屋内ロボットを動的に操作するための視覚的軌跡を捕捉する新しい手法を提案する。
まず,ノイズの多い背景から軌跡を正確に分割する画像処理パイプラインを提案する。
次に、捕獲された軌道は、2つのニューラルネットワークアーキテクチャを設計、訓練、比較するために使用され、連続した空間上でロボットの加速と操舵コマンドを予測する。
最後に,ロボットの遠隔操作とニューラルネットワークの性能,および咬合や低照度環境下でのシステムの実現性について実験を行った。 In this paper, we introduce a novel method to capture visual trajectories for navigating an indoor robot in dynamic settings using streaming image data. First, an image processing pipeline is proposed to accurately segment trajectories from noisy backgrounds. Next, the captured trajectories are used to design, train, and compare two neural network architectures for predicting acceleration and steering commands for a line following robot over a continuous space in real time. Lastly, experimental results demonstrate the performance of the neural networks versus human teleoperation of the robot and the viability of the system in environments with occlusions and/or low-light conditions. | 翻訳日:2023-01-13 04:49:55 公開日:2020-01-09 |
# イノベーションエコシステムのための知識グラフ Knowledge Graphs for Innovation Ecosystems ( http://arxiv.org/abs/2001.08615v1 ) ライセンス: Link先を確認 | Alberto Tejero, Victor Rodriguez-Doncel and Ivan Pau | (参考訳) イノベーションのエコシステムは、専門家、機関、プロジェクト、技術、製品といったネットワーク化されたエンティティの集まりとして自然に説明できる。
これらの実体とそれらの関係は、知識のような抽象概念の存在や、この情報の秘密的で非公的な性質のため、機械可読な形で表現されるが、その部分的な描写でさえも強い関心を持つ。
知識グラフとして機能するイノベーションエコシステムの表現は、新たな洞察と高度なデータ分析タスクの実行によるレポートの生成を可能にする。
イノベーションのナレッジグラフを投入するために使用できるデータソースの記述と同様に、本質的なエンティティと関係をキャプチャするオントロジーが提示される。
最後に、マドリード大学ポリテクニツァの応用事例と将来の応用についての洞察を紹介する。 Innovation ecosystems can be naturally described as a collection of networked entities, such as experts, institutions, projects, technologies and products. Representing in a machine-readable form these entities and their relations is not entirely attainable, due to the existence of abstract concepts such as knowledge and due to the confidential, non-public nature of this information, but even its partial depiction is of strong interest. The representation of innovation ecosystems incarnated as knowledge graphs would enable the generation of reports with new insights, the execution of advanced data analysis tasks. An ontology to capture the essential entities and relations is presented, as well as the description of data sources, which can be used to populate innovation knowledge graphs. Finally, the application case of the Universidad Politecnica de Madrid is presented, as well as an insight of future applications. | 翻訳日:2023-01-13 04:49:45 公開日:2020-01-09 |
# 選択選好獲得のための多重単語埋め込み Multiplex Word Embeddings for Selectional Preference Acquisition ( http://arxiv.org/abs/2001.02836v1 ) ライセンス: Link先を確認 | Hongming Zhang, Jiaxin Bai, Yan Song, Kun Xu, Changlong Yu, Yangqiu Song, Wilfred Ng and Dong Yu | (参考訳) 従来の単語埋め込みは、単語間の共起パターンに基づいて訓練される固定ベクトルを持つ単語を表す。
しかし、そのような表現の力は限られており、同じ単語を異なる構文関係の下で別々に機能化することができる。
この制限に対処する一つの解決策は、異なる単語の関連性依存関係を埋め込みに組み込むことである。
そこで本稿では,単語間の様々な関係に応じて容易に拡張可能な多重単語埋め込みモデルを提案する。
その結果、各単語は、その全体意味を表現する中心埋め込みと、その関係依存を表現するいくつかの関係埋め込みを持つ。
既存のモデルと比較して,不必要なスパース性を導入することなく,関係の異なる単語を効果的に識別することができる。
さらに, 様々な関係性に対応するため, 関係埋め込みに小さな次元を用いており, モデルの有効性を維持することができる。
選択選好獲得と単語の類似性に関する実験により,提案モデルの有効性が示され,さらにスケーラビリティのさらなる研究により,性能向上のためには組込みサイズが元の組込みサイズの1/20だけ必要であることが証明された。 Conventional word embeddings represent words with fixed vectors, which are usually trained based on co-occurrence patterns among words. In doing so, however, the power of such representations is limited, where the same word might be functionalized separately under different syntactic relations. To address this limitation, one solution is to incorporate relational dependencies of different words into their embeddings. Therefore, in this paper, we propose a multiplex word embedding model, which can be easily extended according to various relations among words. As a result, each word has a center embedding to represent its overall semantics, and several relational embeddings to represent its relational dependencies. Compared to existing models, our model can effectively distinguish words with respect to different relations without introducing unnecessary sparseness. Moreover, to accommodate various relations, we use a small dimension for relational embeddings and our model is able to keep their effectiveness. Experiments on selectional preference acquisition and word similarity demonstrate the effectiveness of the proposed model, and a further study of scalability also proves that our embeddings only need 1/20 of the original embedding size to achieve better performance. | 翻訳日:2023-01-13 04:49:31 公開日:2020-01-09 |
# 変圧器に基づくアーキテクチャによる推論と否定のスコープの解消 Resolving the Scope of Speculation and Negation using Transformer-Based Architectures ( http://arxiv.org/abs/2001.02885v1 ) ライセンス: Link先を確認 | Benita Kathleen Britto, Aditya Khandelwal | (参考訳) 推測は、テキストデータにおいて自然に発生する現象であり、特に生体情報検索領域において、多くのシステムの不可欠な構成要素を形成する。
cue検出とスコープ解決(投機検出の2つのサブタスク)に取り組む以前の作業は、ルールベースのシステムからディープラーニングベースのアプローチまで多岐にわたる。
本稿では,BioScope CorpusとSFU Review Corpusの2つの公開データセットに対して,BERT,XLNet,RoBERTaの3つの人気のあるトランスフォーマーベースアーキテクチャを適用し,従来報告した結果よりも大幅に改善されていることを報告する(キュー検出の0.29ポイント,スコープ解像度の4.27F1ポイント)。
また、複数のデータセット上でモデルを共同でトレーニングする実験を行い、単一のデータセットトレーニングアプローチよりも良いマージンで優れています。
XLNetは、他のベンチマークデータセットの結果とは対照的にBERTとRoBERTaを一貫して上回ります。
この観測を裏付けるために、XLNetとRoBERTaを用いて、バイオスコープコーパス(バイオスコープフルペーパーでは3.16F1ポイント、バイオスコープ抽象では0.06F1ポイント)とSFUレビューコーパス(0.3F1ポイント)の否定範囲解決に関する最先端の結果を報告した。 Speculation is a naturally occurring phenomena in textual data, forming an integral component of many systems, especially in the biomedical information retrieval domain. Previous work addressing cue detection and scope resolution (the two subtasks of speculation detection) have ranged from rule-based systems to deep learning-based approaches. In this paper, we apply three popular transformer-based architectures, BERT, XLNet and RoBERTa to this task, on two publicly available datasets, BioScope Corpus and SFU Review Corpus, reporting substantial improvements over previously reported results (by at least 0.29 F1 points on cue detection and 4.27 F1 points on scope resolution). We also experiment with joint training of the model on multiple datasets, which outperforms the single dataset training approach by a good margin. We observe that XLNet consistently outperforms BERT and RoBERTa, contrary to results on other benchmark datasets. To confirm this observation, we apply XLNet and RoBERTa to negation detection and scope resolution, reporting state-of-the-art results on negation scope resolution for the BioScope Corpus (increase of 3.16 F1 points on the BioScope Full Papers, 0.06 F1 points on the BioScope Abstracts) and the SFU Review Corpus (increase of 0.3 F1 points). | 翻訳日:2023-01-13 04:49:12 公開日:2020-01-09 |
# 攻撃的言語検出:比較分析 Offensive Language Detection: A Comparative Analysis ( http://arxiv.org/abs/2001.03131v1 ) ライセンス: Link先を確認 | Vyshnav M T, Sachin Kumar S, Soman K P | (参考訳) インターネットコミュニティでは攻撃行動が広まりつつある。
個人はサイバーの世界における匿名性を生かし、実生活では考慮されないような攻撃的なコミュニケーションに没頭する。
政府やオンラインコミュニティ、企業などは、ソーシャルメディアにおける攻撃的行動コンテンツ防止に投資している。
この謎めいた問題に取り組むための最も効果的な解決策の1つは、攻撃的コンテンツを特定し行動を起こすために計算技術を使うことである。
現在の研究は、英語のツイートにおける攻撃的言語の検出に焦点を当てている。
実験に用いるデータセットは、ソーシャルメディア(OffensEval)における攻撃言語を識別・分類するSemEval-2019 Task 6から得られる。
データセットには14,460の英語ツイートが含まれている。
本稿では, 比較分析とランダムキッチンシンク(rks)に基づく攻撃言語検出手法を提案する。
本稿では,Google文エンコーダ,Fasttext,動的モード分解(DMD)に基づく機能とRandom kitchen sink(RKS)法による攻撃言語検出の有効性について検討する。
実験と評価の結果,Fastetxt を用いた RKS が競合する結果を得た。
評価基準は精度、精度、リコール、f1スコアである。 Offensive behaviour has become pervasive in the Internet community. Individuals take the advantage of anonymity in the cyber world and indulge in offensive communications which they may not consider in the real life. Governments, online communities, companies etc are investing into prevention of offensive behaviour content in social media. One of the most effective solution for tacking this enigmatic problem is the use of computational techniques to identify offensive content and take action. The current work focuses on detecting offensive language in English tweets. The dataset used for the experiment is obtained from SemEval-2019 Task 6 on Identifying and Categorizing Offensive Language in Social Media (OffensEval). The dataset contains 14,460 annotated English tweets. The present paper provides a comparative analysis and Random kitchen sink (RKS) based approach for offensive language detection. We explore the effectiveness of Google sentence encoder, Fasttext, Dynamic mode decomposition (DMD) based features and Random kitchen sink (RKS) method for offensive language detection. From the experiments and evaluation we observed that RKS with fastetxt achieved competing results. The evaluation measures used are accuracy, precision, recall, f1-score. | 翻訳日:2023-01-13 04:47:57 公開日:2020-01-09 |
# センスアノテートデータからの語彙意味変化のシミュレーション Simulating Lexical Semantic Change from Sense-Annotated Data ( http://arxiv.org/abs/2001.03216v1 ) ライセンス: Link先を確認 | Dominik Schlechtweg and Sabine Schulte im Walde | (参考訳) 本稿では,同義語データから語彙意味変化をシミュレートする新しい手法を提案し,語彙意味変化検出モデルの評価に有用性を示す。
誘導データセットは、同期ポリセミーとダイアクロニック変化の密接な関係を利用するため、従来の合成データセットよりも経験的に観察された語彙的意味変化に強い対応を示す。
データを公開し、LCC検出モデルのための最初の大規模評価ゴールド標準を提供する。 We present a novel procedure to simulate lexical semantic change from synchronic sense-annotated data, and demonstrate its usefulness for assessing lexical semantic change detection models. The induced dataset represents a stronger correspondence to empirically observed lexical semantic change than previous synthetic datasets, because it exploits the intimate relationship between synchronic polysemy and diachronic change. We publish the data and provide the first large-scale evaluation gold standard for LSC detection models. | 翻訳日:2023-01-13 04:47:31 公開日:2020-01-09 |
# 単語頻度分布の実証的構造 The empirical structure of word frequency distributions ( http://arxiv.org/abs/2001.05292v1 ) ライセンス: Link先を確認 | Michael Ramscar | (参考訳) 言語間で個々の単語が現れる頻度は、zipfの法則として知られる発見パターンであるパワーロー分布に従う。
膨大な文献が、これが人間のコミュニケーションの効率を最適化するのに役立つかどうかを論じているが、この主張は必ずしもポストホックであり、ジップの法則が実際には他の分布の混合物を表現している可能性が示唆されている。
この観点から、シノスフィアファースト(ファミリー)の名称が幾何学的に分布しているという最近の知見は、最適なコーディングに関する情報理論的な予測と実際に一致しているため注目に値する。
多くの言語でファーストネームが自然のコミュニケーション的分布を形成しており、それらが使われているコミュニティに関して分析すると、様々な言語にまたがるファーストネームの分布は幾何学的であり、歴史的には非常に類似しており、経験的分布が集約されたときにのみパワーローの分布が現れる。
このパターンは、英語の名詞と動詞のコミュニケーション的分布において複製される。
これらの結果は、語彙分布が効率的な通信をサポートするならば、それらの機能構造が情報理論によって記述される制約を直接満たしているためであり、zipfの法則のためではないことを示している。
これらの情報構造の機能を理解することは、人類の顕著なコミュニケーション能力を説明する鍵となる。 The frequencies at which individual words occur across languages follow power law distributions, a pattern of findings known as Zipf's law. A vast literature argues over whether this serves to optimize the efficiency of human communication, however this claim is necessarily post hoc, and it has been suggested that Zipf's law may in fact describe mixtures of other distributions. From this perspective, recent findings that Sinosphere first (family) names are geometrically distributed are notable, because this is actually consistent with information theoretic predictions regarding optimal coding. First names form natural communicative distributions in most languages, and I show that when analyzed in relation to the communities in which they are used, first name distributions across a diverse set of languages are both geometric and, historically, remarkably similar, with power law distributions only emerging when empirical distributions are aggregated. I then show this pattern of findings replicates in communicative distributions of English nouns and verbs. These results indicate that if lexical distributions support efficient communication, they do so because their functional structures directly satisfy the constraints described by information theory, and not because of Zipf's law. Understanding the function of these information structures is likely to be key to explaining humankind's remarkable communicative capacities. | 翻訳日:2023-01-13 04:47:16 公開日:2020-01-09 |
# 機械学習とデータマイニングに基づくデンバー市における犯罪の比較研究 A Comparative Study on Crime in Denver City Based on Machine Learning and Data Mining ( http://arxiv.org/abs/2001.02802v1 ) ライセンス: Link先を確認 | Md. Aminur Rab Ratul | (参考訳) 一般大衆の安全を確保するため、犯罪防止はどの政府にとっても最優先事項の1つだ。
正確な犯罪予測モデルは、政府や法執行機関が暴力を予防し、犯罪を事前に検出し、政府の資源を割り当て、犯罪を引き起こす問題を認識するのに役立つ。
将来指向のツールを構築するためには、可能な限り早い段階で犯罪パターンを調べ、理解することが不可欠である。
本稿では,2014年1月から2019年5月にかけてアメリカ合衆国デンバー郡で発生した実世界の犯罪と事故のデータセットを分析した。
このプロジェクトは、警察機関や政府が、その予測率から予防措置を見つけることを支援する、発生の傾向を予測し、強調することを目的としている。
まず,複数のデータ可視化手法を応用した統計解析を行った。
次に、ランダムフォレスト、決定木、AdaBoost分類器、エクストラツリー分類器、線形識別分析、K-Neighbors分類器、および4組モデルなどの様々な分類アルゴリズムを実装し、15種類の犯罪を分類する。
結果は、trail-test splitとk-fold cross-validationという、2つの一般的なテストメソッドを使って取得される。
さらに,精度,リコール,F1スコア,平均二乗誤差(MSE),ROC曲線,ペアTテストも有効である。
AdaBoost分類器を除いて、ほとんどのアルゴリズムは満足のいく精度を示している。
Random Forest、Decision Tree、Ensemble Model 1, 3, 4は、90%以上の精度を生み出す。
あらゆるアプローチの中で、Ensemble Model 4は評価基準ごとに優れた結果を示した。
本研究は,発生地に関する人々の意識を高め,特定の地域における暴力の発生を特定の時間内に予測するためのセキュリティ機関の支援に有用である。 To ensure the security of the general mass, crime prevention is one of the most higher priorities for any government. An accurate crime prediction model can help the government, law enforcement to prevent violence, detect the criminals in advance, allocate the government resources, and recognize problems causing crimes. To construct any future-oriented tools, examine and understand the crime patterns in the earliest possible time is essential. In this paper, I analyzed a real-world crime and accident dataset of Denver county, USA, from January 2014 to May 2019, which containing 478,578 incidents. This project aims to predict and highlights the trends of occurrence that will, in return, support the law enforcement agencies and government to discover the preventive measures from the prediction rates. At first, I apply several statistical analysis supported by several data visualization approaches. Then, I implement various classification algorithms such as Random Forest, Decision Tree, AdaBoost Classifier, Extra Tree Classifier, Linear Discriminant Analysis, K-Neighbors Classifiers, and 4 Ensemble Models to classify 15 different classes of crimes. The outcomes are captured using two popular test methods: train-test split, and k-fold cross-validation. Moreover, to evaluate the performance flawlessly, I also utilize precision, recall, F1-score, Mean Squared Error (MSE), ROC curve, and paired-T-test. Except for the AdaBoost classifier, most of the algorithms exhibit satisfactory accuracy. Random Forest, Decision Tree, Ensemble Model 1, 3, and 4 even produce me more than 90% accuracy. Among all the approaches, Ensemble Model 4 presented superior results for every evaluation basis. This study could be useful to raise the awareness of peoples regarding the occurrence locations and to assist security agencies to predict future outbreaks of violence in a specific area within a particular time. | 翻訳日:2023-01-13 04:40:35 公開日:2020-01-09 |
# マルチオブジェクトfMRIデータアライメントのための教師付きハイパーアライメント Supervised Hyperalignment for multi-subject fMRI data alignment ( http://arxiv.org/abs/2001.02894v1 ) ライセンス: Link先を確認 | Muhammad Yousefnezhad, Alessandro Selvitella, Liangxiu Han, Daoqiang Zhang | (参考訳) 多変量パターン(mvp)分析において、多変量関数型磁気共鳴画像(fmri)データセットに基づく脳の認知状態の発見に多用されている。
既存のHA法の多くは教師なしの手法を使用しており、時系列において同じ位置のボクセル間の相関を最大化していた。
しかし、これらの教師なしソリューションは、監督されたMVP問題の機能的アライメントを扱うのに最適ではないかもしれない。
本稿では,MVP分析における機能的アライメントを改善するために,SHA法を提案する。提案手法は,同一カテゴリに属する刺激間の相関を最大化し,異なる刺激のカテゴリ間の相関を最小化できる教師付き共有空間を提供する。
さらにshaは、共有スペースを生成し、単一のイテレーションでマップされた特徴を計算し、大きなデータセットの最適な時間と空間の複雑さを持つ、一般化された最適化ソリューションを採用している。
マルチオブジェクトデータセットの実験では、SHA法は最先端HAアルゴリズムよりも最大19%高い性能を達成している。 Hyperalignment has been widely employed in Multivariate Pattern (MVP) analysis to discover the cognitive states in the human brains based on multi-subject functional Magnetic Resonance Imaging (fMRI) datasets. Most of the existing HA methods utilized unsupervised approaches, where they only maximized the correlation between the voxels with the same position in the time series. However, these unsupervised solutions may not be optimum for handling the functional alignment in the supervised MVP problems. This paper proposes a Supervised Hyperalignment (SHA) method to ensure better functional alignment for MVP analysis, where the proposed method provides a supervised shared space that can maximize the correlation among the stimuli belonging to the same category and minimize the correlation between distinct categories of stimuli. Further, SHA employs a generalized optimization solution, which generates the shared space and calculates the mapped features in a single iteration, hence with optimum time and space complexities for large datasets. Experiments on multi-subject datasets demonstrate that SHA method achieves up to 19% better performance for multi-class problems over the state-of-the-art HA algorithms. | 翻訳日:2023-01-13 04:40:04 公開日:2020-01-09 |
# 菌類生合成遺伝子クラスター発見における教師あり学習の支援:新しいベンチマークデータセット Supporting supervised learning in fungal Biosynthetic Gene Cluster discovery: new benchmark datasets ( http://arxiv.org/abs/2001.03260v1 ) ライセンス: Link先を確認 | Hayda Almeida, Adrian Tsang, Abdoulaye Banir\'e Diallo | (参考訳) 二次代謝産物の真菌生合成遺伝子群(英: fungal biosynthetic gene clusters、bgcs)は、天然物や抗生物質や医薬品を含む様々な生理活性化合物の生産において重要な役割を果たす化合物を生産できる遺伝子群である。
BGCの同定は、人間の健康に役立つ新しい天然物の発見につながる可能性がある。
これまでの研究は、植物、菌類、細菌のBGC発見を支援する自動ツールの開発に重点を置いてきた。
bgcの同定には、データ駆動手法、確率的および教師付き学習方法が研究されている。
菌類BGCを同定するためのほとんどの方法は、データ駆動であり、限られた範囲を示していた。
細菌中のBGCの同定に優れた学習方法が示されており、菌類でも同じ課題を遂行するのに適している可能性がある。
しかし教師付き学習を行うにはラベル付きデータインスタンスが必要である。
オープンアクセス可能なBGCデータベースは、以前にキュレートされた真菌BGCのごく一部しか含まない。
新しい真菌BGCデータセットを利用可能にすることは、真菌BGCの教師付き学習方法の開発を動機付け、データ駆動方式と比較して予測性能を向上させる可能性がある。
本研究では,教師付き学習を用いたbgc発見タスクをサポートするために,新規に利用可能なfungal bgcデータセットを提案する。
これらのデータセットは二分分類を行い、真菌ゲノムの候補BGC領域を予測する。
さらに、BGCを予測するために開発された教師付き学習ツールの性能分析を行った。 Fungal Biosynthetic Gene Clusters (BGCs) of secondary metabolites are clusters of genes capable of producing natural products, compounds that play an important role in the production of a wide variety of bioactive compounds, including antibiotics and pharmaceuticals. Identifying BGCs can lead to the discovery of novel natural products to benefit human health. Previous work has been focused on developing automatic tools to support BGC discovery in plants, fungi, and bacteria. Data-driven methods, as well as probabilistic and supervised learning methods have been explored in identifying BGCs. Most methods applied to identify fungal BGCs were data-driven and presented limited scope. Supervised learning methods have been shown to perform well at identifying BGCs in bacteria, and could be well suited to perform the same task in fungi. But labeled data instances are needed to perform supervised learning. Openly accessible BGC databases contain only a very small portion of previously curated fungal BGCs. Making new fungal BGC datasets available could motivate the development of supervised learning methods for fungal BGCs and potentially improve prediction performance compared to data-driven methods. In this work we propose new publicly available fungal BGC datasets to support the BGC discovery task using supervised learning. These datasets are prepared to perform binary classification and predict candidate BGC regions in fungal genomes. In addition we analyse the performance of a well supported supervised learning tool developed to predict BGCs. | 翻訳日:2023-01-13 04:39:00 公開日:2020-01-09 |
# 適応型ニューロファジィ推論システムによる風力発電資源の気候変動影響のモデル化 Modeling Climate Change Impact on Wind Power Resources Using Adaptive Neuro-Fuzzy Inference System ( http://arxiv.org/abs/2001.04279v1 ) ライセンス: Link先を確認 | Narjes Nabipour, Amir Mosavi, Eva Hajnal, Laszlo Nadai, Shahab Shamshirband, Kwok-Wing Chau | (参考訳) 気候変動の影響と適応は多くの研究者の注目を集める進行中の問題の主題である。
ある地域での風力ポテンシャルと気候変動の影響による可能性のある変動は、エネルギー政策立案者やストラテジストにエネルギーの持続可能な開発と管理に有用な情報を提供することができる。
本研究では,タービンハブ高さにおける風力密度の空間的変動と将来の気候シナリオ下での変動について考察する。
地域気候モデルの出力と基準データから得られた出力とを一致させるために,ANFISに基づく後処理技術を用いた。
地域気候モデルから得られた地表面風データを用いて,カスピ海の風力資源に対する気候変動の影響を調査した。
近地風速をタービンハブ高度に変換し,風力密度を計算した結果,現在の20年間(1981-2000年)および将来(2081-2100年)の平均風力,季節,月変動を明らかにした。
本研究の結果から,カスピ海の中・北部は風力の値が最も高いことが判明した。
しかし, 適応型ニューロファジィ推論システム(ANFIS)モデルを用いた後処理技術の結果, 地域気候モデルによる予測よりも, 地域風力の実際のポテンシャルが低いことがわかった。 Climate change impacts and adaptations are the subjects to ongoing issues that attract the attention of many researchers. Insight into the wind power potential in an area and its probable variation due to climate change impacts can provide useful information for energy policymakers and strategists for sustainable development and management of the energy. In this study, spatial variation of wind power density at the turbine hub-height and its variability under future climatic scenarios are taken under consideration. An ANFIS based post-processing technique was employed to match the power outputs of the regional climate model with those obtained from the reference data. The near-surface wind data obtained from a regional climate model are employed to investigate climate change impacts on the wind power resources in the Caspian Sea. Subsequent to converting near-surface wind speed to turbine hub-height speed and computation of wind power density, the results have been investigated to reveal mean annual power, seasonal, and monthly variability for a 20-year period in the present (1981-2000) and in the future (2081-2100). The findings of this study indicated that the middle and northern parts of the Caspian Sea are placed with the highest values of wind power. However, the results of the post-processing technique using adaptive neuro-fuzzy inference system (ANFIS) model showed that the real potential of the wind power in the area is lower than those of projected from the regional climate model. | 翻訳日:2023-01-13 04:38:25 公開日:2020-01-09 |
# シーズンARIMA時系列モデルを用いたNIFTY 50ベンチマークの予測 Forecasting NIFTY 50 benchmark Index using Seasonal ARIMA time series models ( http://arxiv.org/abs/2001.08979v1 ) ライセンス: Link先を確認 | Amit Tewari | (参考訳) 本稿では,株式市場における為替取引指標の動きを捉えるために時系列分析手法を適用する方法について分析する。
具体的には、季節自動回帰統合移動平均(SARIMA)モデルを用いて、世界で最も活発に交換された取引契約の一つであるニフティ50指数の動きを捉える。
合計729モデルパラメータの組み合わせを評価し, aic基準に基づいて最終予測を行うための最適選択 [8] を行った。
NIFTY 50は、ファンドポートフォリオのベンチマーク、インデックスファンドの立ち上げ、ETF(ETF)の交換、構造化製品など、さまざまな目的で使用することができる。
この指数は、インド最大の流動性のある証券であるブルーチップ企業のポートフォリオの挙動を追跡しており、インド株式市場の真の反映と見なすことができる[2]。 This paper analyses how Time Series Analysis techniques can be applied to capture movement of an exchange traded index in a stock market. Specifically, Seasonal Auto Regressive Integrated Moving Average (SARIMA) class of models is applied to capture the movement of Nifty 50 index which is one of the most actively exchange traded contracts globally [1]. A total of 729 model parameter combinations were evaluated and the most appropriate selected for making the final forecast based on AIC criteria [8]. NIFTY 50 can be used for a variety of purposes such as benchmarking fund portfolios, launching of index funds, exchange traded funds (ETFs) and structured products. The index tracks the behaviour of a portfolio of blue chip companies, the largest and most liquid Indian securities and can be regarded as a true reflection of the Indian stock market [2]. | 翻訳日:2023-01-13 04:38:02 公開日:2020-01-09 |
# soda-rlによる急性血圧低下症の鑑別的・効果的な治療 : 高度に最適化された多彩な強化学習 Identifying Distinct, Effective Treatments for Acute Hypotension with SODA-RL: Safely Optimized Diverse Accurate Reinforcement Learning ( http://arxiv.org/abs/2001.03224v1 ) ライセンス: Link先を確認 | Joseph Futoma, Muhammad A. Masood, Finale Doshi-Velez | (参考訳) クリティカルケア設定における低血圧は、早期に認識され治療されなければならない生命を脅かす緊急事態である。
体液療法や血管抑制薬は一般的な治療法であるが、どの介入がどの量、どのくらいの時間を与えるかはよく分かっていない。
電子健康記録の形式での観察データは、過去の出来事からこれらの選択を知らせる情報源を提供することができるが、観察データだけでは最良の戦略を特定できないことが多い。
このような状況では、信頼できるオプションのコレクションをプロバイダに公開することが重要です。
この目的のために, 安全な最適化, ディバース, 正確な強化学習を行うSODA-RLを開発した。
低血圧が呈する10,142 icuのコホート上にsoda-rlを示す。
我々の学習した政策は、観察された医師の行動と相性が良いが、治療決定に異なる、妥当な代替手段を提供する。 Hypotension in critical care settings is a life-threatening emergency that must be recognized and treated early. While fluid bolus therapy and vasopressors are common treatments, it is often unclear which interventions to give, in what amounts, and for how long. Observational data in the form of electronic health records can provide a source for helping inform these choices from past events, but often it is not possible to identify a single best strategy from observational data alone. In such situations, we argue it is important to expose the collection of plausible options to a provider. To this end, we develop SODA-RL: Safely Optimized, Diverse, and Accurate Reinforcement Learning, to identify distinct treatment options that are supported in the data. We demonstrate SODA-RL on a cohort of 10,142 ICU stays where hypotension presented. Our learned policies perform comparably to the observed physician behaviors, while providing different, plausible alternatives for treatment decisions. | 翻訳日:2023-01-13 04:31:39 公開日:2020-01-09 |
# ネットワークオンライン学習の限界を理解する Understanding the Limitations of Network Online Learning ( http://arxiv.org/abs/2001.07607v1 ) ライセンス: Link先を確認 | Timothy LaRock, Timothy Sakharov, Sahely Bhadra, Tina Eliassi-Rad | (参考訳) オンラインソーシャルメディアでのインタラクションのようなネットワーク化された現象の研究は、これらの現象が部分的に観察されているか、データがすべて取得するには大きすぎるか高価すぎるため、不完全なデータに依存することが多い。
不完全なデータの解析は、歪んだ結果や誤解を招く結果をもたらす。
本稿では,ノードクエリによる部分観測ネットワークの完全化に対する学習の限界について検討する。
具体的には,以下の問題を研究する。
(i)部分的に観察されたネットワーク
(ii)その接続(例えば、apiへのアクセスによって)のノードに問い合わせる能力、及び
(iii)そのようなクエリの数に関する予算は、可観測性を最大限に高めるために、どのノードに問い合わせるべきかを順次学習する。
我々はこのクエリ処理をNetwork Online Learningと呼び、NOL*と呼ばれるアルゴリズム群を提示する。
これらのアルゴリズムは、探索とエクスプロイトのプロセスを通じてオンラインにトレーニングされたパラメータ化モデルに基づいて、次にクエリする部分的なノードを選択することを学ぶ。
人工ネットワークと実世界ネットワークの両方で 大規模な実験が行われました
(i)どのノードが最適なクエリをネットワーク上で選択するかを逐次学習することが可能である。
(ii) 次数分布やモジュラー構造といったネットワークのマクロな性質は、学習の可能性やランダム探索の最適量に影響を与える。 Studies of networked phenomena, such as interactions in online social media, often rely on incomplete data, either because these phenomena are partially observed, or because the data is too large or expensive to acquire all at once. Analysis of incomplete data leads to skewed or misleading results. In this paper, we investigate limitations of learning to complete partially observed networks via node querying. Concretely, we study the following problem: given (i) a partially observed network, (ii) the ability to query nodes for their connections (e.g., by accessing an API), and (iii) a budget on the number of such queries, sequentially learn which nodes to query in order to maximally increase observability. We call this querying process Network Online Learning and present a family of algorithms called NOL*. These algorithms learn to choose which partially observed node to query next based on a parameterized model that is trained online through a process of exploration and exploitation. Extensive experiments on both synthetic and real world networks show that (i) it is possible to sequentially learn to choose which nodes are best to query in a network and (ii) some macroscopic properties of networks, such as the degree distribution and modular structure, impact the potential for learning and the optimal amount of random exploration. | 翻訳日:2023-01-13 04:30:49 公開日:2020-01-09 |
# 昇降制限ボルツマン機械の非パラメトリック学習 Non-Parametric Learning of Lifted Restricted Boltzmann Machines ( http://arxiv.org/abs/2001.10070v1 ) ライセンス: Link先を確認 | Navdeep Kaur and Gautam Kunapuli and Sriraam Natarajan | (参考訳) 我々は、リレーショナルデータが存在する場合に制限されたボルツマンマシンを識別的に学習する問題を考察する。
規則学習者(構造学習)と重み学習者(パラメータ学習)を逐次採用する従来の手法とは異なり,両手法を同時に行う勾配型アプローチを開発する。
本手法は,根から葉への経路が連結節であり,構造を表現し,その葉値がパラメータを表す弱関係回帰木の集合を学習する。
学習したリレーショナル回帰木を昇降RBMに変換すると、その隠れノードは正確にはリレーショナル回帰木に由来する共役節である。
これはより解釈可能で説明可能なモデルにつながる。
我々の経験的評価は、学習モデルの有効性を損なうことなく、この側面を明確に示している。 We consider the problem of discriminatively learning restricted Boltzmann machines in the presence of relational data. Unlike previous approaches that employ a rule learner (for structure learning) and a weight learner (for parameter learning) sequentially, we develop a gradient-boosted approach that performs both simultaneously. Our approach learns a set of weak relational regression trees, whose paths from root to leaf are conjunctive clauses and represent the structure, and whose leaf values represent the parameters. When the learned relational regression trees are transformed into a lifted RBM, its hidden nodes are precisely the conjunctive clauses derived from the relational regression trees. This leads to a more interpretable and explainable model. Our empirical evaluations clearly demonstrate this aspect, while displaying no loss in effectiveness of the learned models. | 翻訳日:2023-01-13 04:22:00 公開日:2020-01-09 |
# カーネルに基づく勾配降下アルゴリズムの適応停止規則 Adaptive Stopping Rule for Kernel-based Gradient Descent Algorithms ( http://arxiv.org/abs/2001.02879v1 ) ライセンス: Link先を確認 | Xiangyu Chang, Shao-Bo Lin | (参考訳) 本稿では,カーネルベース勾配降下(KGD)アルゴリズムに対する適応的停止則を提案する。
我々は、KGDにおける反復の増分を定量化するための経験的有効次元を導入し、実装可能な早期停止戦略を導出する。
学習理論の枠組みにおける適応的停止規則の性能を解析する。
最近開発された積分演算子アプローチを用いて、この規則を具備したKGDの最適学習率を示すことで、適応停止則の最適性を厳格に証明する。
さらに,提案する早期停止規則を満たしたkgdの反復数に対する鋭い境界も与えて,その計算上の優位性を実証する。 In this paper, we propose an adaptive stopping rule for kernel-based gradient descent (KGD) algorithms. We introduce the empirical effective dimension to quantify the increments of iterations in KGD and derive an implementable early stopping strategy. We analyze the performance of the adaptive stopping rule in the framework of learning theory. Using the recently developed integral operator approach, we rigorously prove the optimality of the adaptive stopping rule in terms of showing the optimal learning rates for KGD equipped with this rule. Furthermore, a sharp bound on the number of iterations in KGD equipped with the proposed early stopping rule is also given to demonstrate its computational advantage. | 翻訳日:2023-01-13 04:20:38 公開日:2020-01-09 |
# 地理的分散医療ビッグデータプラットフォームのためのプライバシー保護型ディープラーニング計算 Privacy-Preserving Deep Learning Computation for Geo-Distributed Medical Big-Data Platforms ( http://arxiv.org/abs/2001.02932v1 ) ライセンス: Link先を確認 | Joohyung Jeon, Junhui Kim, Joongheon Kim, Kwangsoo Kim, Aziz Mohaisen, and Jong-Kook Kim | (参考訳) 本稿では,プライバシ保存医療データトレーニングのための分散ディープラーニングフレームワークを提案する。
医療プラットフォームにおける患者のデータ漏洩を避けるため、ディープラーニングフレームワーク内の隠されたレイヤを分離し、第1のレイヤをプラットフォームに保持し、他のレイヤを集中型サーバに保持する。
元の患者のデータをローカルプラットフォームに保持する一方で、サーバを次のレイヤに利用することで、トレーニング中に各プラットフォームからすべてのデータを使用することで、学習パフォーマンスを向上させる。 This paper proposes a distributed deep learning framework for privacy-preserving medical data training. In order to avoid patients' data leakage in medical platforms, the hidden layers in the deep learning framework are separated and where the first layer is kept in platform and others layers are kept in a centralized server. Whereas keeping the original patients' data in local platforms maintain their privacy, utilizing the server for subsequent layers improves learning performance by using all data from each platform during training. | 翻訳日:2023-01-13 04:20:27 公開日:2020-01-09 |
# 選択した機械学習アルゴリズムにおけるデータの局所性向上のためのガイドライン Guidelines for enhancing data locality in selected machine learning algorithms ( http://arxiv.org/abs/2001.03000v1 ) ライセンス: Link先を確認 | Imen Chakroun and Tom Vander Aa and Thomas J. Ashby | (参考訳) 新たな大規模で複雑なデータ生成の複雑さに対処するために、マシンラーニング(ML)技術はおそらく最初に、最も多く使用されるものだ。
mlアルゴリズムが適切な時間内に結果を生成するためには、効率的に実装する必要がある。
本稿では,データ局所性を利用した機械学習アルゴリズムの性能向上手法の1つを分析する。
データローカリティとアクセスパターンは、パフォーマンスを改善するために特定のハードウェア技術を使用するため、コンピューティングシステムにおけるパフォーマンス問題の中心となることが多い。
局所性を高めるためにアクセスパターンを変更することは、与えられたアルゴリズムの性能を劇的に向上させる。
また、繰り返しデータアクセスは、データ移動における冗長性と見なすことができる。
同様に、計算の繰り返しにも冗長性がある。
この研究は、計算結果を直接再利用することでこれらの冗長性を避けるためのいくつかの機会を特定する。
まず、現代の命令セットプロセッサのメモリ階層の再利用を利用して、より効率的な実装を実現するための動機付けから始める。
次に、選択した機械学習アルゴリズムでそのような再利用の可能性について述べる。 To deal with the complexity of the new bigger and more complex generation of data, machine learning (ML) techniques are probably the first and foremost used. For ML algorithms to produce results in a reasonable amount of time, they need to be implemented efficiently. In this paper, we analyze one of the means to increase the performances of machine learning algorithms which is exploiting data locality. Data locality and access patterns are often at the heart of performance issues in computing systems due to the use of certain hardware techniques to improve performance. Altering the access patterns to increase locality can dramatically increase performance of a given algorithm. Besides, repeated data access can be seen as redundancy in data movement. Similarly, there can also be redundancy in the repetition of calculations. This work also identifies some of the opportunities for avoiding these redundancies by directly reusing computation results. We start by motivating why and how a more efficient implementation can be achieved by exploiting reuse in the memory hierarchy of modern instruction set processors. Next we document the possibilities of such reuse in some selected machine learning algorithms. | 翻訳日:2023-01-13 04:20:20 公開日:2020-01-09 |
# ニューラルネットワークにおけるサンプリング予測マッチング例:確率的プログラミングアプローチ Sampling Prediction-Matching Examples in Neural Networks: A Probabilistic Programming Approach ( http://arxiv.org/abs/2001.03076v1 ) ライセンス: Link先を確認 | Serena Booth, Ankit Shah, Yilun Zhou, Julie Shah | (参考訳) ニューラルネットワークモデルは印象的な性能を示すが、これらのブラックボックスモデルが個々の予測をどう行うかは正確には分かっていない。
この欠点は、ロバスト性、解釈可能性、一般化能力といった分野において、これらのモデルを理解するための重要な研究につながった。
本稿では,確率的プログラミングを用いて分類器の予測レベル集合を探索する問題を考える。
本研究では,任意のデータ分布に対して,予測器が同じ特定の予測信頼度を持つ例のセットとして,予測レベルを定義した。
特に、サンプリングベースの手法では、任意の分類器と互換性を持たせるために、分類器を識別する必要がない。
特定のインスタンス化として、分類器をニューラルネットワークとし、データ分布をトレーニングデータのものとすれば、ニューラルネットワークによる特定の予測結果をもたらす例を得ることができる。
この手法を合成データセットとMNISTの実験により実証する。
このような分類のレベルセットは、分類行動の人間の理解を促進する。 Though neural network models demonstrate impressive performance, we do not understand exactly how these black-box models make individual predictions. This drawback has led to substantial research devoted to understand these models in areas such as robustness, interpretability, and generalization ability. In this paper, we consider the problem of exploring the prediction level sets of a classifier using probabilistic programming. We define a prediction level set to be the set of examples for which the predictor has the same specified prediction confidence with respect to some arbitrary data distribution. Notably, our sampling-based method does not require the classifier to be differentiable, making it compatible with arbitrary classifiers. As a specific instantiation, if we take the classifier to be a neural network and the data distribution to be that of the training data, we can obtain examples that will result in specified predictions by the neural network. We demonstrate this technique with experiments on a synthetic dataset and MNIST. Such level sets in classification may facilitate human understanding of classification behaviors. | 翻訳日:2023-01-13 04:20:05 公開日:2020-01-09 |
# ナレッジグラフにおける人間理解可能な事実チェックのためのディベートダイナミクス Debate Dynamics for Human-comprehensible Fact-checking on Knowledge Graphs ( http://arxiv.org/abs/2001.03436v1 ) ライセンス: Link先を確認 | Marcel Hildebrandt, Jorge Andres Quintero Serna, Yunpu Ma, Martin Ringsquandl, Mitchell Joblin, Volker Tresp | (参考訳) 本稿では,議論力学に基づく知識グラフのファクトチェック手法を提案する。
基本的な考え方は、知識グラフの経路である議論を抽出する2つの強化学習エージェント間の議論ゲームとして三重分類のタスクを、それぞれ真である事実(仮説)または偽である事実(仮説)を正当化することを目的としている。
これらの議論に基づいて、二項分類器は裁判官と呼ばれ、事実が真か偽かを決定する。
この2つのエージェントは、論文またはアンチテーゼの解釈可能な証拠を示すスパース特徴抽出体と見なすことができる。
ブラックボックス法とは対照的に、この議論は、ユーザが裁判官の決定に対する理解を得ることを可能にする。
さらに,知識グラフ上での対話的推論が可能であり,ユーザが追加の議論を提起したり,常識的推論や外部情報を考慮した議論を評価できる。
このようなインタラクティブなシステムは、知識グラフに基づくさまざまなAIアプリケーションの受け入れを高め、より高い効率、堅牢性、公平性をもたらす可能性がある。 We propose a novel method for fact-checking on knowledge graphs based on debate dynamics. The underlying idea is to frame the task of triple classification as a debate game between two reinforcement learning agents which extract arguments -- paths in the knowledge graph -- with the goal to justify the fact being true (thesis) or the fact being false (antithesis), respectively. Based on these arguments, a binary classifier, referred to as the judge, decides whether the fact is true or false. The two agents can be considered as sparse feature extractors that present interpretable evidence for either the thesis or the antithesis. In contrast to black-box methods, the arguments enable the user to gain an understanding for the decision of the judge. Moreover, our method allows for interactive reasoning on knowledge graphs where the users can raise additional arguments or evaluate the debate taking common sense reasoning and external information into account. Such interactive systems can increase the acceptance of various AI applications based on knowledge graphs and can further lead to higher efficiency, robustness, and fairness. | 翻訳日:2023-01-13 04:13:28 公開日:2020-01-09 |
# 強化学習のための集団誘導並列政策探索 Population-Guided Parallel Policy Search for Reinforcement Learning ( http://arxiv.org/abs/2001.02907v1 ) ライセンス: Link先を確認 | Whiyoung Jung, Giseung Park, Youngchul Sung | (参考訳) 本稿では,オフポリシー強化学習(rl)の性能を向上させるために,新たな集団誘導型並列学習方式を提案する。
提案手法では,それぞれの価値関数と方針を持つ複数の同一学習者が共通の経験リプレイバッファを共有し,最良の政策情報の指導と協調して良質な方針を探索する。
キーポイントは、ポリシー更新のための追加損失関数を構築して、複数の学習者による検索領域全体の拡大を行うことにより、最良のポリシーの情報をソフトに融合させることである。
以前のベストポリシーと拡張範囲によるガイダンスは、より高速でより良いポリシー検索を可能にする。
提案手法による予測累積回帰の単調化を理論的に証明した。
作業アルゴリズムは、提案手法を2つの遅延深い決定性(TD3)ポリシー勾配アルゴリズムに適用することによって構成される。
数値計算の結果, 構築されたアルゴリズムは現在の最先端RLアルゴリズムよりも優れており, スパース報酬環境の場合の利得は顕著である。 In this paper, a new population-guided parallel learning scheme is proposed to enhance the performance of off-policy reinforcement learning (RL). In the proposed scheme, multiple identical learners with their own value-functions and policies share a common experience replay buffer, and search a good policy in collaboration with the guidance of the best policy information. The key point is that the information of the best policy is fused in a soft manner by constructing an augmented loss function for policy update to enlarge the overall search region by the multiple learners. The guidance by the previous best policy and the enlarged range enable faster and better policy search. Monotone improvement of the expected cumulative return by the proposed scheme is proved theoretically. Working algorithms are constructed by applying the proposed scheme to the twin delayed deep deterministic (TD3) policy gradient algorithm. Numerical results show that the constructed algorithm outperforms most of the current state-of-the-art RL algorithms, and the gain is significant in the case of sparse reward environment. | 翻訳日:2023-01-13 04:13:09 公開日:2020-01-09 |
# 層出力の一元化によるディープニューラルネットワークの内部共変シフト境界アルゴリズム An Internal Covariate Shift Bounding Algorithm for Deep Neural Networks by Unitizing Layers' Outputs ( http://arxiv.org/abs/2001.02814v1 ) ライセンス: Link先を確認 | You Huang, Yuanlong Yu | (参考訳) バッチ正規化(BN)技術は、内部共変量シフト(ICS)と呼ばれる層出力の分布を一定に保とうとする手法として提案されている。
ディープニューラルネットワークのトレーニングにおける効果が実証されている。
しかし、このBN手法では、最初の2つのモーメントのみが制御されるため、層分布に弱い制約が課せられ、さらにICSを低減できるかどうかも不明である。
そこで本稿では,地球モーバー距離を用いてICSの測度を提案し,その上と下の境界を導出し,BNの理論的解析を行う。
上界は、BN技術がICSを制御できるのは低次元の出力と小さなノイズのみであるが、他の場合ではその制御は有効ではないことを示している。
また、この制御はICSの低減というよりはICSの境界に過ぎないことも証明した。
一方、bnが制御できない高次モーメントとノイズは、下界に大きな影響を与えることが示された。
そこで本研究では, BN の問題に対処するため, ICS に調整可能なパラメータで出力を統一するアルゴリズムを提案する。
提案したユニタリゼーションの上限はノイズフリーであり、パラメータのみに支配される。
これにより、パラメータをトレーニングして境界を調整し、さらにICSを制御することができる。
さらに、情報損失を低減するため、単位化をBNのフレームワークに組み込む。
実験の結果,提案アルゴリズムはCIFAR-10, CIFAR-100, ImageNetデータセット上で既存のBN技術よりも優れていた。 Batch Normalization (BN) techniques have been proposed to reduce the so-called Internal Covariate Shift (ICS) by attempting to keep the distributions of layer outputs unchanged. Experiments have shown their effectiveness on training deep neural networks. However, since only the first two moments are controlled in these BN techniques, it seems that a weak constraint is imposed on layer distributions and furthermore whether such constraint can reduce ICS is unknown. Thus this paper proposes a measure for ICS by using the Earth Mover (EM) distance and then derives the upper and lower bounds for the measure to provide a theoretical analysis of BN. The upper bound has shown that BN techniques can control ICS only for the outputs with low dimensions and small noise whereas their control is NOT effective in other cases. This paper also proves that such control is just a bounding of ICS rather than a reduction of ICS. Meanwhile, the analysis shows that the high-order moments and noise, which BN cannot control, have great impact on the lower bound. Based on such analysis, this paper furthermore proposes an algorithm that unitizes the outputs with an adjustable parameter to further bound ICS in order to cope with the problems of BN. The upper bound for the proposed unitization is noise-free and only dominated by the parameter. Thus, the parameter can be trained to tune the bound and further to control ICS. Besides, the unitization is embedded into the framework of BN to reduce the information loss. The experiments show that this proposed algorithm outperforms existing BN techniques on CIFAR-10, CIFAR-100 and ImageNet datasets. | 翻訳日:2023-01-13 04:12:52 公開日:2020-01-09 |
# 深層学習による無相関宇宙観測連合 Deep Learning Enabled Uncorrelated Space Observation Association ( http://arxiv.org/abs/2001.05855v1 ) ライセンス: Link先を確認 | Jacob J Decoto, David RC Dayton | (参考訳) 非相関な光学空間観測連合は、干し草問題における古典的な針を表す。
目的は、同じ居住空間オブジェクト(RSO)の可能性が高い小さなグループを、すべての非相関な観測のはるかに大きな集団から見つけることである。
これらの観察は、時間的にも観測センサーの位置に関しても、潜在的に広く異なる。
大規模な代表データ集合をトレーニングすることにより,物理や軌道力学のエンコード知識を持たない深層学習可能な学習モデルが,共通物体の観測を識別するモデルを学ぶことができることを示す。
50%の一致した観測ペアのバランスのとれた入力セットを提示すると、学習されたモデルは観測ペアが同じrso83.1%であるかどうかを正確に識別することができた。
得られた学習モデルは、1,000の異なるシミュレーションされた非相関な観測結果のアンバランスな実験セットの探索アルゴリズムと併用して、人口142のオブジェクトのうち111を表す真の3つの観測セットを識別できることが示されている。
ほとんどの物体は 3つの観測トリプレットで識別されています
これは1.66e8の探索空間の0.06%のみを探索しながら達成される。 Uncorrelated optical space observation association represents a classic needle in a haystack problem. The objective being to find small groups of observations that are likely of the same resident space objects (RSOs) from amongst the much larger population of all uncorrelated observations. These observations being potentially widely disparate both temporally and with respect to the observing sensor position. By training on a large representative data set this paper shows that a deep learning enabled learned model with no encoded knowledge of physics or orbital mechanics can learn a model for identifying observations of common objects. When presented with balanced input sets of 50% matching observation pairs the learned model was able to correctly identify if the observation pairs were of the same RSO 83.1% of the time. The resulting learned model is then used in conjunction with a search algorithm on an unbalanced demonstration set of 1,000 disparate simulated uncorrelated observations and is shown to be able to successfully identify true three observation sets representing 111 out of 142 objects in the population. With most objects being identified in multiple three observation triplets. This is accomplished while only exploring 0.06% of the search space of 1.66e8 possible unique triplet combinations. | 翻訳日:2023-01-13 04:12:27 公開日:2020-01-09 |
# パフォーマンス指向ニューラルアーキテクチャ探索 Performance-Oriented Neural Architecture Search ( http://arxiv.org/abs/2001.02976v1 ) ライセンス: Link先を確認 | Andrew Anderson, Jing Su, Rozenn Dahyot and David Gregg | (参考訳) ハードウェア・ソフトウェア共同設計は、ドメイン固有のコンピュータシステムの性能向上のための非常に成功した戦略である。
我々は,この手法を深層学習に適用することについて議論する。具体的には,生成したモデル設計が精度に関する典型的な基準に加えて,極めて効率的であることを保証するため,ハードウェアに関する情報を用いたニューラルアーキテクチャ探索の拡張を提案する。
エッジコンピューティングデバイス上での音声におけるキーワードスポッティングのタスクを用いて,このアプローチが,高い精度を持つだけでなく,推論を行う計算プラットフォームに効率的にマッピングされるニューラルアーキテクチャをもたらすことを実証する。
改良したニューラルアーキテクチャ検索により、top-1精度が0.88\%$向上し、組み込みsoc上のオーディオにおけるキーワードスポッティングのレイテンシが1.85\times$、ハイエンドgpuで1.59\times$となった。 Hardware-Software Co-Design is a highly successful strategy for improving performance of domain-specific computing systems. We argue for the application of the same methodology to deep learning; specifically, we propose to extend neural architecture search with information about the hardware to ensure that the model designs produced are highly efficient in addition to the typical criteria around accuracy. Using the task of keyword spotting in audio on edge computing devices, we demonstrate that our approach results in neural architecture that is not only highly accurate, but also efficiently mapped to the computing platform which will perform the inference. Using our modified neural architecture search, we demonstrate $0.88\%$ increase in TOP-1 accuracy with $1.85\times$ reduction in latency for keyword spotting in audio on an embedded SoC, and $1.59\times$ on a high-end GPU. | 翻訳日:2023-01-13 04:11:57 公開日:2020-01-09 |
# 生物アリの人工フェロモン通信による気泡柱反応器内の流動特性の予測 Prediction of flow characteristics in the bubble column reactor by the artificial pheromone-based communication of biological ants ( http://arxiv.org/abs/2001.04276v1 ) ライセンス: Link先を確認 | Shahab Shamshirband, Meisam Babanezhad, Amir Mosavi, Narjes Nabipour, Eva Hajnal, Laszlo Nadai, Kwok-Wing Chau | (参考訳) 多相化学反応器の挙動を理解するため, アリコロニー最適化アルゴリズムと計算流体力学(CFD)データを組み合わせた。
このインテリジェントアルゴリズムは、流れの確率論的手法を作成し、様々なレベルの3次元気泡柱反応器(BCR)を予測できる。
この人工アリアルゴリズムは本物のアリの行動を模倣している。
この方法は, 領域内の全データの約30%を用いて, 反応器内の流動特性を予測できる。
適切なパラメータを発見した後、antコロニー法のメッシュ微細化を表すcfdでシミュレートされていない点を予測するために使用される。
また、数値的な結果や評価データの正確な値のトレーニングがなければ、気泡カラム型原子炉を予測できる。
主な利点は計算コストの削減と時間節約である。
その結果,bcrの各区間におけるantコロニー予測とcfd出力との間に大きな一致が認められた。
antコロニーシステムとニューラルネットワークフレームワークの組み合わせは、生物学的および自然物理学の基礎現象を推定するスマートな構造を提供することができる。
antビヘイビアに基づくantコロニー最適化アルゴリズム(aco)フレームワークは、3dバブルカラムリアクタ全体の局所的な数学的解を全て解くことができる。
全ての局所解の積分は、異なる特性のために反応器の全体的解を与えることができる。
このモデリングの新たな概要は、自然界の生物行動に新たな視点を描き出すことができる。 In order to perceive the behavior presented by the multiphase chemical reactors, the ant colony optimization algorithm was combined with computational fluid dynamics (CFD) data. This intelligent algorithm creates a probabilistic technique for computing flow and it can predict various levels of three-dimensional bubble column reactor (BCR). This artificial ant algorithm is mimicking real ant behavior. This method can anticipate the flow characteristics in the reactor using almost 30 % of the whole data in the domain. Following discovering the suitable parameters, the method is used for predicting the points not being simulated with CFD, which represent mesh refinement of Ant colony method. In addition, it is possible to anticipate the bubble-column reactors in the absence of numerical results or training of exact values of evaluated data. The major benefits include reduced computational costs and time savings. The results show a great agreement between ant colony prediction and CFD outputs in different sections of the BCR. The combination of ant colony system and neural network framework can provide the smart structure to estimate biological and nature physics base phenomena. The ant colony optimization algorithm (ACO) framework based on ant behavior can solve all local mathematical answers throughout 3D bubble column reactor. The integration of all local answers can provide the overall solution in the reactor for different characteristics. This new overview of modelling can illustrate new sight into biological behavior in nature. | 翻訳日:2023-01-13 04:11:40 公開日:2020-01-09 |
# 音声認識システムの誤り訂正のためのオープンチャレンジ Open Challenge for Correcting Errors of Speech Recognition Systems ( http://arxiv.org/abs/2001.03041v1 ) ライセンス: Link先を確認 | Marek Kubis, Zygmunt Vetulani, Miko{\l}aj Wypych, Tomasz Zi\k{e}tkiewicz | (参考訳) 本稿では,音声認識システムの性能向上のための新たな長期課題について述べる。
課題は, 音声処理システムによる事前の誤りに基づいて, 認識結果を補正する方法を検討することである。
タスクのために準備されたデータセットを記述し、評価基準を示す。 The paper announces the new long-term challenge for improving the performance of automatic speech recognition systems. The goal of the challenge is to investigate methods of correcting the recognition results on the basis of previously made errors by the speech processing system. The dataset prepared for the task is described and evaluation criteria are presented. | 翻訳日:2023-01-13 04:11:21 公開日:2020-01-09 |
# リカレントニューラルネットワークによるランダムフィリングシーケンスのオンライン記憶 Online Memorization of Random Firing Sequences by a Recurrent Neural Network ( http://arxiv.org/abs/2001.02920v1 ) ライセンス: Link先を確認 | Patrick Murer and Hans-Andrea Loeliger | (参考訳) 本稿では,局所学習ルールを用いてランダムな動的発火パターンを記憶するリカレントニューラルネットワークモデルの能力について検討する。
学習/記憶の2つのモードが考慮されている: 1つ目のモードは厳密にオンラインであり、1つのモードがデータを通過する。
どちらのモードにおいても、学習は厳密に局所的(クァシ・ヘビアン)であり、任意の時間段階において、前時間段階におけるニューロンの発火(または発火)と現在の段階における発火(または発火)の間の重みのみが修正される。
この論文の主な結果は、単パス記憶が完全ではない確率の上界である。
このモードにおける記憶能力は、古典的なホップフィールドモデルのように漸近的にスケールする(対照的に静的パターンを記憶する)。
しかし、複数ラウンドの記憶は(接続/シナプス当たりのビット数で)高い容量を達成することが示される。
これらの数学的発見は、神経科学における短期記憶と長期記憶の機能を理解するのに役立つかもしれない。 This paper studies the capability of a recurrent neural network model to memorize random dynamical firing patterns by a simple local learning rule. Two modes of learning/memorization are considered: The first mode is strictly online, with a single pass through the data, while the second mode uses multiple passes through the data. In both modes, the learning is strictly local (quasi-Hebbian): At any given time step, only the weights between the neurons firing (or supposed to be firing) at the previous time step and those firing (or supposed to be firing) at the present time step are modified. The main result of the paper is an upper bound on the probability that the single-pass memorization is not perfect. It follows that the memorization capacity in this mode asymptotically scales like that of the classical Hopfield model (which, in contrast, memorizes static patterns). However, multiple-rounds memorization is shown to achieve a higher capacity (with a nonvanishing number of bits per connection/synapse). These mathematical findings may be helpful for understanding the functions of short-term memory and long-term memory in neuroscience. | 翻訳日:2023-01-13 04:11:16 公開日:2020-01-09 |