このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20200118となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# Telcoにおけるチャーン予測のためのソーシャルネットワーク分析:モデル構築、評価、ネットワークアーキテクチャ Social Network Analytics for Churn Prediction in Telco: Model Building, Evaluation and Network Architecture ( http://arxiv.org/abs/2001.06701v1 ) ライセンス: Link先を確認 | Mar\'ia \'Oskarsd\'ottir, Cristi\'an Bravo, Wouter Verbeke, Carlos Sarraute, Bart Baesens, Jan Vanthienen | (参考訳) ソーシャルネットワーク分析手法は、通信業界で顧客の混乱を予測し、大きな成功を収めている。
特に、この特定の問題に適応した関係学習者が予測モデルの性能を高めることが示されている。
本研究は,世界中の通信機関を起源とする,合計8つの異なるコールディーテールレコードデータセットに適用することにより,関係学習者を構築するためのさまざまな戦略をベンチマークする。
我々は,関係学習者の予測能力に及ぼす関係分類器と集団推論手法の効果を統計的に評価し,また,関係学習者が従来の通信業界における顧客変動予測手法と組み合わせたモデルの性能を評価する。
最後に,ネットワーク構築がモデル性能に与える影響について検討し,ネットワーク内のエッジと重みの定義が予測モデルの結果に与える影響を示唆した。
本研究の結果として、最適構成は、二分重と無向ネットワークを用いて、集団推論なしで、ネットワーク変数に富んだ非関係学習者である。
さらに,ネットワークアーキテクチャからモデル構築・評価まで,通信産業におけるチャーン予測にソーシャルネットワーク分析を適用する方法についてのガイドラインを提供する。 Social network analytics methods are being used in the telecommunication industry to predict customer churn with great success. In particular it has been shown that relational learners adapted to this specific problem enhance the performance of predictive models. In the current study we benchmark different strategies for constructing a relational learner by applying them to a total of eight distinct call-detail record datasets, originating from telecommunication organizations across the world. We statistically evaluate the effect of relational classifiers and collective inference methods on the predictive power of relational learners, as well as the performance of models where relational learners are combined with traditional methods of predicting customer churn in the telecommunication industry. Finally we investigate the effect of network construction on model performance; our findings imply that the definition of edges and weights in the network does have an impact on the results of the predictive models. As a result of the study, the best configuration is a non-relational learner enriched with network variables, without collective inference, using binary weights and undirected networks. In addition, we provide guidelines on how to apply social networks analytics for churn prediction in the telecommunication industry in an optimal way, ranging from network architecture to model building and evaluation. | 翻訳日:2023-06-07 12:16:37 公開日:2020-01-18 |
# 通信産業におけるチャーン予測のためのソーシャルネットワーク分類器の比較研究 A Comparative Study of Social Network Classifiers for Predicting Churn in the Telecommunication Industry ( http://arxiv.org/abs/2001.06700v1 ) ライセンス: Link先を確認 | Maria \'Oskarsd\'ottir, Cristi\'an Bravo, Wouter Verbeke, Carlos Sarraute, Bart Baesens, Jan Vanthienen | (参考訳) ネットワークデータにおける関係学習は多くの研究で有効であることが示されている。
関係学習者は、関係分類器と集団推論法からなり、他のノードへのリンクの存在と強度を考慮し、ネットワーク内のノードの推論を可能にする。
これらの手法は、電信企業における顧客の混乱を予測するために適応されており、それを取り入れることでより正確な予測が可能になる。
本研究では,通信産業から派生した多数のCDRデータセットに適用し,それらを総合的にランク付けし,関係分類器と集団推論手法を別々に検討することを目的として,多種多様な関係学習者の性能を比較した。
この結果から,関係分類器の性能は向上せず,最も優れた関係分類器はネットワークのみのリンクベース分類器であり,ネットワーク内のノードに対するリンクベース尺度を用いたロジスティックモデルを構築した。 Relational learning in networked data has been shown to be effective in a number of studies. Relational learners, composed of relational classifiers and collective inference methods, enable the inference of nodes in a network given the existence and strength of links to other nodes. These methods have been adapted to predict customer churn in telecommunication companies showing that incorporating them may give more accurate predictions. In this research, the performance of a variety of relational learners is compared by applying them to a number of CDR datasets originating from the telecommunication industry, with the goal to rank them as a whole and investigate the effects of relational classifiers and collective inference methods separately. Our results show that collective inference methods do not improve the performance of relational classifiers and the best performing relational classifier is the network-only link-based classifier, which builds a logistic model using link-based measures for the nodes in the network. | 翻訳日:2023-06-07 12:16:09 公開日:2020-01-18 |
# プレシェードエンタングルメントを用いた通信容量の無限倍増 Infinite-fold enhancement in communications capacity using pre-shared entanglement ( http://arxiv.org/abs/2001.03934v2 ) ライセンス: Link先を確認 | Saikat Guha, Quntao Zhuang, Boulat Bash | (参考訳) 遮蔽された絡み合いは、高熱雑音下での通信速度を著しく向上させ、低輝度の送信機となる。
この状態において、エンタングルメントアシスト容量とホレボ容量の比は、量子力学によってリソースとして共有されたエンタングルメントなしで許容される最大信頼通信レートであり、$\log(1/N_S)$とスケールすることが知られている。
これは、例えば量子インターネットによって配布される、事前に共有された光周波数の絡み合いを利用して、弱い送信電力体制における無線周波数通信を大幅に向上させることで特に有望である。
本稿では, 量子トランスミッタと受信機の構造設計について提案する。これは, この無限倍容量増強を活用可能なダウンコンバージョン源からの連続可変プレシェード絡みを利用して, 10年以上にわたって開かれてきた問題である。
最後に、この結果が、事前共有された絡み合い支援を伴う隠密通信のためのよく知られた「二乗根の法則」の破れに繋がる影響について論じる。 Pre-shared entanglement can significantly boost communication rates in the regime of high thermal noise, and a low-brightness transmitter. In this regime, the ratio between the entanglement-assisted capacity and the Holevo capacity, the maximum reliable-communication rate permitted by quantum mechanics without any pre-shared entanglement as a resource, is known to scale as $\log(1/N_S)$, where $N_S \ll 1$ is the mean transmitted photon number per mode. This is especially promising in enabling a large boost to radio-frequency communications in the weak-transmit-power regime, by exploiting pre-shared optical-frequency entanglement, e.g., distributed by the quantum internet. In this paper, we propose a structured design of a quantum transmitter and receiver that leverages continuous-variable pre-shared entanglement from a downconversion source, which can harness this purported infinite-fold capacity enhancement---a problem open for over a decade. Finally, the implication of this result to the breaking of the well-known {\em square-root law} for covert communications, with pre-shared entanglement assistance, is discussed. | 翻訳日:2023-01-12 05:06:23 公開日:2020-01-18 |
# 航空画像のセマンティックセグメンテーションにおける逆損失 Adversarial Loss for Semantic Segmentation of Aerial Imagery ( http://arxiv.org/abs/2001.04269v2 ) ライセンス: Link先を確認 | Clint Sebastian, Raffaele Imbriaco, Egor Bondarev, Peter H.N. de With | (参考訳) 航空画像からの建物の自動抽出は、都市計画、災害管理、変化検出にいくつかの応用がある。
近年では、照明条件や影などに対して不変な豊富な特徴を生んでいるため、建物抽出に深層畳み込みニューラルネットワーク(CNN)が採用されている。
幾度かの進歩があったが、航空画像からの建築物の抽出は依然として多くの課題を呈している。
深層学習のセグメンテーション手法の多くは、文脈の知識のない基礎的な真実に関して、ピクセル当たりの損失を最適化する。
これはしばしば不完全な出力をもたらし、不足または未精製領域につながる可能性がある。
本研究では,意味セグメンテーションのための局所的および大域的な文脈を理解することを学ぶ,逆的および相互エントロピー的損失を組み合わせる新しい損失関数を提案する。
新たに提案されたdeeplab v3+ネットワーク上の損失関数は、マサチューセッツビルディングデータセットの最先端の結果を得る。
損失関数は構造を改善し、コンディショナルランダムフィールドのような一般的な後処理手法を必要とせずに建物の縁を洗練させる。
また, 敵の損失が与える影響を理解するため, アブレーション研究を行う。
最後に、提案手法はマサチューセッツの建物のデータセットで95.59%の緩和されたF1スコアを達成する。 Automatic building extraction from aerial imagery has several applications in urban planning, disaster management, and change detection. In recent years, several works have adopted deep convolutional neural networks (CNNs) for building extraction, since they produce rich features that are invariant against lighting conditions, shadows, etc. Although several advances have been made, building extraction from aerial imagery still presents multiple challenges. Most of the deep learning segmentation methods optimize the per-pixel loss with respect to the ground truth without knowledge of the context. This often leads to imperfect outputs that may lead to missing or unrefined regions. In this work, we propose a novel loss function combining both adversarial and cross-entropy losses that learn to understand both local and global contexts for semantic segmentation. The newly proposed loss function deployed on the DeepLab v3+ network obtains state-of-the-art results on the Massachusetts buildings dataset. The loss function improves the structure and refines the edges of buildings without requiring any of the commonly used post-processing methods, such as Conditional Random Fields. We also perform ablation studies to understand the impact of the adversarial loss. Finally, the proposed method achieves a relaxed F1 score of 95.59% on the Massachusetts buildings dataset compared to the previous best F1 of 94.88%. | 翻訳日:2023-01-11 23:44:14 公開日:2020-01-18 |
# 無線ネットワークの機械学習による性能改善に関する調査:PHY,MAC,ネットワーク層 A survey on Machine Learning-based Performance Improvement of Wireless Networks: PHY, MAC and Network layer ( http://arxiv.org/abs/2001.04561v2 ) ライセンス: Link先を確認 | Merima Kulin, Tarik Kazaz, Ingrid Moerman, Eli de Poorter | (参考訳) 本稿では,プロトコルスタック(phy,mac,ネットワーク)のすべてのレイヤを考慮しながら,機械学習(ml)ベースの無線ネットワークの性能向上に焦点をあてた最新の研究成果を概観した体系的かつ包括的な調査を行う。
まず、関連する作業と論文のコントリビューションについて論じ、続いて、議論されたすべてのテクニックを理解するために、データ駆動アプローチと機械学習に必要な背景を提供する。
次に,無線通信パラメータ設定を最適化し,ネットワーク品質(qos)とqoe(quality-of-experience)の改善を実現するためのmlベースの手法を用いた包括的レビューを行った。
まず、これらの研究を、無線分析、MAC分析、ネットワーク予測アプローチ、各サブカテゴリに分類する。
最後に、オープンチャレンジとより広い視点について論じる。 This paper provides a systematic and comprehensive survey that reviews the latest research efforts focused on machine learning (ML) based performance improvement of wireless networks, while considering all layers of the protocol stack (PHY, MAC and network). First, the related work and paper contributions are discussed, followed by providing the necessary background on data-driven approaches and machine learning for non-machine learning experts to understand all discussed techniques. Then, a comprehensive review is presented on works employing ML-based approaches to optimize the wireless communication parameters settings to achieve improved network quality-of-service (QoS) and quality-of-experience (QoE). We first categorize these works into: radio analysis, MAC analysis and network prediction approaches, followed by subcategories within each. Finally, open challenges and broader perspectives are discussed. | 翻訳日:2023-01-11 22:58:26 公開日:2020-01-18 |
# スムースマーケット:勾配学習者の組織化のための基礎的メカニズム Smooth markets: A basic mechanism for organizing gradient-based learners ( http://arxiv.org/abs/2001.04678v2 ) ライセンス: Link先を確認 | David Balduzzi, Wojciech M Czarnecki, Thomas W Anthony, Ian M Gemp, Edward Hughes, Joel Z Leibo, Georgios Piliouras, Thore Graepel | (参考訳) 現代の機械学習の成功により、学習アルゴリズムの相互作用の理解と制御がますます重要になっている。
残念なことに、ゲーム理論の否定的な結果から、一般的なnプレイヤーゲームを理解したり制御したりする見込みはほとんどないことが示されている。
そこで我々は,ペアワイズゼロサムインタラクションのnプレイヤーゲームであるsmooth markets (sm-games)を導入する。
SMゲームは、(一部)GAN、敵対的トレーニング、その他の最近のアルゴリズムを含む、機械学習における一般的なデザインパターンを符号化する。
SMゲームは1次手法を用いて解析と最適化が可能であることを示す。 With the success of modern machine learning, it is becoming increasingly important to understand and control how learning algorithms interact. Unfortunately, negative results from game theory show there is little hope of understanding or controlling general n-player games. We therefore introduce smooth markets (SM-games), a class of n-player games with pairwise zero sum interactions. SM-games codify a common design pattern in machine learning that includes (some) GANs, adversarial training, and other recent algorithms. We show that SM-games are amenable to analysis and optimization using first-order methods. | 翻訳日:2023-01-11 11:47:09 公開日:2020-01-18 |
# 英文混成文と単言語文の集約識別のための統一システム A Unified System for Aggression Identification in English Code-Mixed and Uni-Lingual Texts ( http://arxiv.org/abs/2001.05493v2 ) ライセンス: Link先を確認 | Anant Khandelwal, Niraj Kumar | (参考訳) ソーシャルメディアプラットフォームの普及により、攻撃のリスクが増大し、精神的なストレスが引き起こされ、心理的苦痛、戦闘行動、他人への軽視といった人々の生活に悪影響を及ぼしている。
このような会話の大部分は、コード混合言語[28]を含んでいる。
さらに、思考やコミュニケーションスタイルの表現方法も、あるソーシャルメディアのplat-formから別のプラットフォームに変更された(例えば、twitterやfacebookではコミュニケーションスタイルが異なる)。
これらはすべて、問題の複雑さを増した。
これらの問題を解決するために,我々は,英語コード混合データセットと一言語英語データセットの両方で動作する統一的でロバストなマルチモーダルディープラーニングアーキテクチャを導入した。
当社のマルチモーダルディープラーニングアーキテクチャには、Deep Pyramid CNN、Pooled BiLSTM、Disconnect RNN(GloveとFastTextの埋め込みも含む)が含まれています。
最後に、システムはモデル平均化に基づいて決定を行う。
我々は、Kaggleから得られた英語コードミクシングTRAC 2018データセットとユニ言語英語データセットについて評価した。
実験結果から,提案システムは,英語のコード混合データセットと単言語の英語データセットにおいて,従来のアプローチよりも優れていた。 Wide usage of social media platforms has increased the risk of aggression, which results in mental stress and affects the lives of people negatively like psychological agony, fighting behavior, and disrespect to others. Majority of such conversations contains code-mixed languages[28]. Additionally, the way used to express thought or communication style also changes from one social media plat-form to another platform (e.g., communication styles are different in twitter and Facebook). These all have increased the complexity of the problem. To solve these problems, we have introduced a unified and robust multi-modal deep learning architecture which works for English code-mixed dataset and uni-lingual English dataset both.The devised system, uses psycho-linguistic features and very ba-sic linguistic features. Our multi-modal deep learning architecture contains, Deep Pyramid CNN, Pooled BiLSTM, and Disconnected RNN(with Glove and FastText embedding, both). Finally, the system takes the decision based on model averaging. We evaluated our system on English Code-Mixed TRAC 2018 dataset and uni-lingual English dataset obtained from Kaggle. Experimental results show that our proposed system outperforms all the previous approaches on English code-mixed dataset and uni-lingual English dataset. | 翻訳日:2023-01-11 06:41:10 公開日:2020-01-18 |
# フォールトトレラント量子コンピューティングのためのスケーラブルデコーダマイクロアーキテクチャ A Scalable Decoder Micro-architecture for Fault-Tolerant Quantum Computing ( http://arxiv.org/abs/2001.06598v1 ) ライセンス: Link先を確認 | Poulami Das, Christopher A. Pattison, Srilatha Manne, Douglas Carmean, Krysta Svore, Moinuddin Qureshi, Nicolas Delfosse | (参考訳) 量子計算は、いくつかの問題に対して古典計算よりも大きな計算上の利点を約束する。
しかし、量子ハードウェアは従来のハードウェアよりもはるかに高いエラー率に苦しんでいる。
その結果、有用な量子アルゴリズムを実行するために広範囲な量子誤差補正が必要となる。
デコーダは、量子コンピュータに蓄積されるよりも早くエラーを識別する役割を担い、実用的なアプリケーション環境にスケールするために最小限のハードウェアリソースで実装されなければならないエラー訂正スキームの重要なコンポーネントである。
本研究では,量子コンピューティングにおいて最も一般的な誤り訂正符号であるsurface code error correctionについて検討し,union-find decodingアルゴリズムのためのデコーダマイクロアーキテクチャを設計する。
本稿では,デコーダを高速化する3段階の完全パイプライン化ハードウェア実装を提案する。
次に、量子コンピュータの全ての論理量子ビットに対して同時にエラー訂正を行うために必要な復号ハードウェアの量を最適化する。
論理量子ビット間でリソースを共有することにより、ハードウェアユニット数の67%の削減とメモリ容量の70%の削減が得られる。
さらに,低オーバヘッド圧縮アルゴリズムを用いて,デコード処理に必要な帯域幅を少なくとも30倍削減する。
最後に、最適化されたマイクロアーキテクチャが量子コンピュータの誤りを訂正するのに十分な速度で実行できるという数値的な証拠を提供する。 Quantum computation promises significant computational advantages over classical computation for some problems. However, quantum hardware suffers from much higher error rates than in classical hardware. As a result, extensive quantum error correction is required to execute a useful quantum algorithm. The decoder is a key component of the error correction scheme whose role is to identify errors faster than they accumulate in the quantum computer and that must be implemented with minimum hardware resources in order to scale to the regime of practical applications. In this work, we consider surface code error correction, which is the most popular family of error correcting codes for quantum computing, and we design a decoder micro-architecture for the Union-Find decoding algorithm. We propose a three-stage fully pipelined hardware implementation of the decoder that significantly speeds up the decoder. Then, we optimize the amount of decoding hardware required to perform error correction simultaneously over all the logical qubits of the quantum computer. By sharing resources between logical qubits, we obtain a 67% reduction of the number of hardware units and the memory capacity is reduced by 70%. Moreover, we reduce the bandwidth required for the decoding process by a factor at least 30x using low-overhead compression algorithms. Finally, we provide numerical evidence that our optimized micro-architecture can be executed fast enough to correct errors in a quantum computer. | 翻訳日:2023-01-10 05:37:14 公開日:2020-01-18 |
# 時空間多段階戦略による画像系列登録の高速化 Accelerating the Registration of Image Sequences by Spatio-temporal Multilevel Strategies ( http://arxiv.org/abs/2001.06613v1 ) ライセンス: Link先を確認 | Hari Om Aggrawal, Jan Modersitzki | (参考訳) マルチレベル戦略は多くの画像登録アルゴリズムの不可欠な部分である。
これらの戦略は、望ましくない局所最小値を避け、優れた初期推定を提供し、全体の計算時間を短縮したことで非常によく知られている。
最先端のマルチレベル戦略は、空間次元における離散化の階層を構築する。
本稿では,空間レベルでの時間次元における階層的離散化を導入する,時空間戦略を提案する。
この戦略は、時間とともに動きを滑らかに仮定する動き推定問題に適合する。
本手法は,予測子補正手法により,画像フレーム間の時間的平滑性を利用する。
この戦略は、新しい補間法により動きを予測し、後に登録により修正する。
予測ステップは、補正ステップの適切な初期推測を提供し、登録の全体的な計算時間を短縮する。
この加速度は3つの光コヒーレンストモグラフィーデータセットに対する最先端のマルチレベル手法よりも平均2.5倍の精度で達成される。 Multilevel strategies are an integral part of many image registration algorithms. These strategies are very well-known for avoiding undesirable local minima, providing an outstanding initial guess, and reducing overall computation time. State-of-the-art multilevel strategies build a hierarchy of discretization in the spatial dimensions. In this paper, we present a spatio-temporal strategy, where we introduce a hierarchical discretization in the temporal dimension at each spatial level. This strategy is suitable for a motion estimation problem where the motion is assumed smooth over time. Our strategy exploits the temporal smoothness among image frames by following a predictor-corrector approach. The strategy predicts the motion by a novel interpolation method and later corrects it by registration. The prediction step provides a good initial guess for the correction step, hence reduces the overall computational time for registration. The acceleration is achieved by a factor of 2.5 on average, over the state-of-the-art multilevel methods on three examined optical coherence tomography datasets. | 翻訳日:2023-01-10 05:36:20 公開日:2020-01-18 |
# 分割線形鎖におけるトポロジカル非自明スピン偏極状態の発生 Emergence of Topologically Non-trivial Spin-polarized States in a Segmented Linear Chain ( http://arxiv.org/abs/2001.06565v1 ) ライセンス: Link先を確認 | Thang Pham, Sehoon Oh, Scott Stonemeyer, Brian Shevitski, Jeffrey D. Cain, Chengyu Song, Peter Ercius, Marvin L. Cohen, and Alex Zettl | (参考訳) 新規または有用な性質を持つ新しい物質の合成は、凝縮物質物理学と材料科学の分野で最も重要な要因の1つである。
この種の発見は、将来の基本的な研究と応用を期待するときに特に重要である。
低次元のビルディングブロックからなるファンデルワールス結合材料は、原子レベルで薄いform1-8で単離された際に創発性を示すことが示されている。
そこで本研究では,2つのハフニウム原子と9つのテルル原子(hf2te9)からなる基本構造ブロックがファンデルワールス結合端から端まで存在する,未知のセグメンテーション線形鎖型遷移金属カルコゲナイドの発見を報告する。
密度汎関数理論に基づく第一原理計算は、選択されたエネルギーバンド状態の巨大スピン分割や非自明な位相相を含む、セグメンテーション鎖の電子構造における結晶対称性に関連した特徴を示す。
原子分解能走査透過電子顕微鏡により、カーボンナノチューブの中空コア内で単離された単一セグメントのHf2Te9鎖が、理論的予測と一致する構造を示す。
van der waals-bonded segmented linear chain transition metal chalcogenide materialsは、低次元、ゲート可変、磁気およびトポロジカル結晶系において新たな機会を開く可能性がある。 The synthesis of new materials with novel or useful properties is one of the most important drivers in the fields of condensed matter physics and materials science. Discoveries of this kind are especially significant when they point to promising future basic research and applications. Van der Waals bonded materials comprised of lower-dimensional building blocks have been shown to exhibit emergent properties when isolated in an atomically thin form1-8. Here, we report the discovery of a transition metal chalcogenide in a heretofore unknown segmented linear chain form, where basic building blocks each consisting of two hafnium atoms and nine tellurium atoms (Hf2Te9) are van der Waals bonded end-to-end. First-principle calculations based on density functional theory reveal striking crystal-symmetry-related features in the electronic structure of the segmented chain, including giant spin splitting and nontrivial topological phases of selected energy band states. Atomic-resolution scanning transmission electron microscopy reveals single segmented Hf2Te9 chains isolated within the hollow cores of carbon nanotubes, with a structure consistent with theoretical predictions. Van der Waals-bonded segmented linear chain transition metal chalcogenide materials could open up new opportunities in low-dimensional, gate-tunable, magnetic and topological crystalline systems. | 翻訳日:2023-01-10 05:36:05 公開日:2020-01-18 |
# バイオインスパイアされた周期性ナノフォトニックデバイスにおける単一量子エミッタの制御 Control of single quantum emitters in bio-inspired aperiodic nano-photonic devices ( http://arxiv.org/abs/2001.06723v1 ) ライセンス: Link先を確認 | Oliver J. Trojak, Sean Gorsky, Connor Murray, Fabrizio Sgrignuoli, Felipe Arruda Pinheiro, Suk-In Park, Jin Dong Song, Luca Dal Negro, Luca Sapienza | (参考訳) チップ上での光-光相互作用の強化は、ナノ光学および量子光学効果の研究や、古典的および量子フォトニクス、センシングとエネルギー収穫の応用など統合デバイスの実現において最重要である。
エンジニアリングされたナノデバイスは、光の効率的な閉じ込めと単一エミッタの自然放出ダイナミクスの制御を可能にし、空洞量子力学の実験と古典的および量子的光源の開発に不可欠である。
本稿では, 窒化ケイ素およびヒ素で作製したバイオインスパイアされた非周期デバイスを用いて, 光物質相互作用の増強とチップへのパーセル効果の実証を行った。
内部光源、すなわち窒化ケイ素とヒ素の単一量子ドットにおける光学活性欠陥中心は、マイクロフォトルミネッセンス分光法(英語版)により、フォゲル-スピラル幾何でフォトニック膜に閉じ込められた個々の光学モードを撮像し特徴付けるために用いられる。
測定された光共鳴の統計を厳密な多重散乱理論と組み合わせることで、対数正規分布を観測し、2201+-443以上の値を持つ品質因子を報告した。
この新しいプラットフォームで達成された強い光閉じ込めに基づき、単一半導体量子ドットと閉じ込められた光学モードの結合をさらに検討する。
以上の結果から, 単一光遷移の自然発振減衰の強い変化をもたらす空洞量子力学的効果が示された。
本研究は,発光型Vogel-Spiralシステムの基本物理特性の理解を改善し,量子フォトニックデバイスへの応用を示し,チップ上での古典的および量子アクティブデバイスの発展の基盤を形成する。 Enhancing light-matter interactions on a chip is of paramount importance to study nano- and quantum optics effects and to realise integrated devices, for instance, for classical and quantum photonics, sensing and energy harvesting applications. Engineered nano-devices enable the efficient confinement of light and the control of the spontaneous emission dynamics of single emitters, which is crucial for cavity quantum electrodynamics experiments and for the development of classical and quantum light sources. Here, we report on the demonstration of enhanced light-matter interaction and Purcell effects on a chip, based on bio-inspired aperiodic devices fabricated in silicon nitride and gallium arsenide. Internal light sources, namely optically-active defect centers in silicon nitride and indium arsenide single quantum dots, are used to image and characterize, by means of micro-photoluminescence spectroscopy, the individual optical modes confined by photonic membranes with Vogel-spiral geometry. By studying the statistics of the measured optical resonances, in partnership with rigorous multiple scattering theory, we observe log-normal distributions and report quality factors with values as high as 2201+/-443. Building on the strong light confinement achieved in this novel platform, we further investigate the coupling of single semiconductor quantum dots to the confined optical modes. Our results show cavity quantum electrodynamics effects providing strong modifications of the spontaneous emission decay of single optical transitions: we show control of the decay lifetime of single emitters with a dynamic range reaching 20. Our findings improve the understanding of the fundamental physical properties of light-emitting Vogel-spiral systems, show their application to quantum photonic devices, and form the basis for the further development of classical and quantum active devices on a chip. | 翻訳日:2023-01-10 05:35:41 公開日:2020-01-18 |
# GANに基づく可変画像圧縮システム A GAN-based Tunable Image Compression System ( http://arxiv.org/abs/2001.06580v1 ) ライセンス: Link先を確認 | Lirong Wu, Kejie Huang and Haibin Shen | (参考訳) 画像内容の重要度に応じてビット割り当てを実現するため,DNNベースの画像圧縮において重要度マップが広く採用されている。
しかし、重要でない領域でのビットの割り当て不足は、低bpp(ピクセル当たりのビット)での厳しい歪みを招き、効率的なコンテンツ重み付け画像圧縮システムの開発を阻害する。
本稿では、GAN(Generative Adversarial Network)を用いてコンテンツベースの圧縮を再考し、重要でない領域を再構築する。
さらに、マルチスケールのピラミッド分解をエンコーダと判別器の両方に適用し、高解像度画像のグローバル圧縮を実現する。
本論文では,モデルを再トレーニングすることなく,任意の特定の圧縮比に画像を圧縮するために,可変圧縮スキームも提案する。
実験の結果,提案手法は,最近報告したGAN法と比較してMS-SSIMを10.3%以上改善し,Kodakデータセット上で同じ低bpp(0.05)を達成した。 The method of importance map has been widely adopted in DNN-based lossy image compression to achieve bit allocation according to the importance of image contents. However, insufficient allocation of bits in non-important regions often leads to severe distortion at low bpp (bits per pixel), which hampers the development of efficient content-weighted image compression systems. This paper rethinks content-based compression by using Generative Adversarial Network (GAN) to reconstruct the non-important regions. Moreover, multiscale pyramid decomposition is applied to both the encoder and the discriminator to achieve global compression of high-resolution images. A tunable compression scheme is also proposed in this paper to compress an image to any specific compression ratio without retraining the model. The experimental results show that our proposed method improves MS-SSIM by more than 10.3% compared to the recently reported GAN-based method to achieve the same low bpp (0.05) on the Kodak dataset. | 翻訳日:2023-01-10 05:31:51 公開日:2020-01-18 |
# クロスモーダル物体認識のための伝達学習アプローチ:視覚観測からロボット触覚探索へ A Transfer Learning Approach to Cross-Modal Object Recognition: From Visual Observation to Robotic Haptic Exploration ( http://arxiv.org/abs/2001.06673v1 ) ライセンス: Link先を確認 | Pietro Falco, Shuang Lu, Ciro Natale, Salvatore Pirozzi, and Dongheui Lee | (参考訳) 本研究では,ロボットによる能動探査によるクロスモーダルビジュオ触覚物体認識の問題を紹介する。
この用語でいうと、ロボットは視覚的知覚を持つ物体の集合を観察し、その後、触覚的な探索でのみ認識でき、それまでの物体に触れることなく、そのような物体を認識できる。
機械学習の用語を使用すると、私たちのアプリケーションでは、視覚的なトレーニングセットと触覚テストセットがあります。
この問題に取り組むために,視覚触覚共通表現の探索,適切な特徴セットの定義,ドメイン間の特徴の転送,オブジェクトの分類という4つのステップからなるアプローチを提案する。
このアプローチの結果を15個のオブジェクトのセットで示し,各オブジェクトに対して40個の視覚的な例と5つの触覚的例を収集した。
提案手法は94.7%の精度を実現しており、トレーニングセットとテストセットの両方で視覚的データを使用する場合のモノモダルケースの精度に匹敵する。
さらに,10人の被験者による実験を大まかに見積もった人間の能力と比較すると,その性能は良好である。 In this work, we introduce the problem of cross-modal visuo-tactile object recognition with robotic active exploration. With this term, we mean that the robot observes a set of objects with visual perception and, later on, it is able to recognize such objects only with tactile exploration, without having touched any object before. Using a machine learning terminology, in our application we have a visual training set and a tactile test set, or vice versa. To tackle this problem, we propose an approach constituted by four steps: finding a visuo-tactile common representation, defining a suitable set of features, transferring the features across the domains, and classifying the objects. We show the results of our approach using a set of 15 objects, collecting 40 visual examples and five tactile examples for each object. The proposed approach achieves an accuracy of 94.7%, which is comparable with the accuracy of the monomodal case, i.e., when using visual data both as training set and test set. Moreover, it performs well compared to the human ability, which we have roughly estimated carrying out an experiment with ten participants. | 翻訳日:2023-01-10 05:31:15 公開日:2020-01-18 |
# 混合ゲームと動的アルゴリズムの複雑さ・安定性特性と共有経済における学習 Complexity, Stability Properties of Mixed Games and Dynamic Algorithms, and Learning in the Sharing Economy ( http://arxiv.org/abs/2001.08192v1 ) ライセンス: Link先を確認 | Michael C. Nwogugu | (参考訳) シェアリング・エコノミー(Airbnb、Apple、Alibaba、Uber、WeWork、Ebay、Didi Chuxing、Amazonなど)は世界中に波及し、業界構造の変化を引き起こし、主に多くの国で様々な法令や法律に従わず、国際資本フローに大きな影響を与えた。
また、多くの産業において、しばしば社会福祉を損なうために、競争の性質を違法に減らし変えた。
本稿では,SEOの新たな動的価格モデルを開発し,反トラストの信頼性を排除し,致命的損失,欲求,レグレトおよびGPS操作を低減させる混合ゲームと動的アルゴリズムの安定性特性を導出する。
新しい動的価格モデルは、Myerson Satterthwaite Impossibility Theoremに反している。 The Sharing Economy (which includes Airbnb, Apple, Alibaba, Uber, WeWork, Ebay, Didi Chuxing, Amazon) blossomed across the world, triggered structural changes in industries and significantly affected international capital flows primarily by disobeying a wide variety of statutes and laws in many countries. They also illegally reduced and changing the nature of competition in many industries often to the detriment of social welfare. This article develops new dynamic pricing models for the SEOs and derives some stability properties of mixed games and dynamic algorithms which eliminate antitrust liability and also reduce deadweight losses, greed, Regret and GPS manipulation. The new dynamic pricing models contravene the Myerson Satterthwaite Impossibility Theorem. | 翻訳日:2023-01-10 05:30:36 公開日:2020-01-18 |
# 情報カスケード予測のためのDeep Collaborative Embedding Deep Collaborative Embedding for information cascade prediction ( http://arxiv.org/abs/2001.06665v1 ) ライセンス: Link先を確認 | Yuhui Zhao, Ning Yang, Tao Lin, Philip S. Yu | (参考訳) 近年,情報カスケード予測は研究者の関心を惹きつけているが,既存の作品の3つの欠点が原因で,解決には至っていない。
まず、既存の研究は情報拡散の複雑さのために現実の世界では実現不可能な情報拡散モデルを想定していることが多い。
第二に、既存の研究は感染順の予測を無視することが多く、ソーシャルネットワーク分析においても重要な役割を担っている。
最終的に、既存の作品は、実際には観測できないであろう基盤となる拡散ネットワークの要件に依存することが多い。
本稿では,2つの課題がある拡散機構と拡散ネットワークに関する知識を必要とせずに,ノード感染と感染順序の両方を予測することを目的とした。
1つは、ノードのカスケード特性と、それをキャプチャする方法であり、もう1つは、情報カスケード内のノードの非線形特徴をモデル化する方法である。
これらの課題に対処するために,我々は,ノード構造特性だけでなく2種類のノードカスケード特性も捉えることができる情報カスケード予測のための深層協調埋め込み(dce)と呼ばれる新しいモデルを提案する。
本稿では, 自動エンコーダを用いた協調埋め込みフレームワークを提案し, カスケード協調とノード協調でノード埋め込みを学習し, 情報カスケードの非線形性を効果的に捉えることができる。
実世界のデータセット上で行った広範囲な実験の結果から,本手法の有効性が検証された。 Recently, information cascade prediction has attracted increasing interest from researchers, but it is far from being well solved partly due to the three defects of the existing works. First, the existing works often assume an underlying information diffusion model, which is impractical in real world due to the complexity of information diffusion. Second, the existing works often ignore the prediction of the infection order, which also plays an important role in social network analysis. At last, the existing works often depend on the requirement of underlying diffusion networks which are likely unobservable in practice. In this paper, we aim at the prediction of both node infection and infection order without requirement of the knowledge about the underlying diffusion mechanism and the diffusion network, where the challenges are two-fold. The first is what cascading characteristics of nodes should be captured and how to capture them, and the second is that how to model the non-linear features of nodes in information cascades. To address these challenges, we propose a novel model called Deep Collaborative Embedding (DCE) for information cascade prediction, which can capture not only the node structural property but also two kinds of node cascading characteristics. We propose an auto-encoder based collaborative embedding framework to learn the node embeddings with cascade collaboration and node collaboration, in which way the non-linearity of information cascades can be effectively captured. The results of extensive experiments conducted on real-world datasets verify the effectiveness of our approach. | 翻訳日:2023-01-10 05:30:22 公開日:2020-01-18 |
# 極度に緩やかに上昇する銀行ローンデフォルトの予測 Predicting Bank Loan Default with Extreme Gradient Boosting ( http://arxiv.org/abs/2002.02011v1 ) ライセンス: Link先を確認 | Rising Odegua | (参考訳) ローンデフォルトの予測は、銀行や他の金融機関が直面する最も重要かつ重要な問題の一つであり、利益に大きな影響を及ぼす。
ローン申請に関する情報をマイニングする伝統的な手法は数多く存在するが、悪いローンの件数の増加が報告されているため、これらの手法のほとんどはパフォーマンスが低いようである。
本稿では,XGBoost と呼ばれる Extreme Gradient Boosting アルゴリズムを用いて,デフォルトのローン予測を行う。
この予測は、ローン申請と申請者の人口統計の両方のデータセットを考慮して、指導的銀行からのローンデータに基づいている。
また,分析の精度,リコール,精度,f1-score,roc領域などの重要な評価指標を示す。
本稿では,予測モデルを用いて,多数のローンアプリケーションからリスクの高い顧客を識別するために,ローン債権承認の効果的な基礎を提供する。 Loan default prediction is one of the most important and critical problems faced by banks and other financial institutions as it has a huge effect on profit. Although many traditional methods exist for mining information about a loan application, most of these methods seem to be under-performing as there have been reported increases in the number of bad loans. In this paper, we use an Extreme Gradient Boosting algorithm called XGBoost for loan default prediction. The prediction is based on a loan data from a leading bank taking into consideration data sets from both the loan application and the demographic of the applicant. We also present important evaluation metrics such as Accuracy, Recall, precision, F1-Score and ROC area of the analysis. This paper provides an effective basis for loan credit approval in order to identify risky customers from a large number of loan applications using predictive modeling. | 翻訳日:2023-01-10 05:29:16 公開日:2020-01-18 |
# SNMP-MIBデータセットにおけるルールベース機械学習によるネットワーク異常の検出 Detecting Network Anomalies using Rule-based machine learning within SNMP-MIB dataset ( http://arxiv.org/abs/2002.02368v1 ) ライセンス: Link先を確認 | Abdalrahman Hwoij, Mouhammd Al-kasassbeh, Mustafa Al-Fayoumi | (参考訳) ネットワーク性能を制限するサイバー犯罪者を標的とする最も効果的な脅威の1つは、DoS攻撃である。
したがって、この種の攻撃によってデータセキュリティ、完全性、効率が著しく損なわれる可能性がある。
本稿では、DOS攻撃と通常のトラフィックを区別するために、採用データセットに依存するネットワークトラフィックシステムを開発した。
検出モデルは5つのルールベースの機械学習分類器(DecisionTable, JRip, OneR, Part, ZeroR)で構築される。
その結果、ICMP 変数は、ICMP 攻撃、HTTP 洪水攻撃、Slowloris の識別に、Partial 分類器を用いて、約99.7%の精度で実装されていることがわかった。
さらに、Partial分類器は、異なるDOS攻撃からの通常のトラフィックを100%に分類することに成功している。 One of the most effective threats that targeting cybercriminals to limit network performance is Denial of Service (DOS) attack. Thus, data security, completeness and efficiency could be greatly damaged by this type of attacks. This paper developed a network traffic system that relies on adopted dataset to differentiate the DOS attacks from normal traffic. The detection model is built with five Rule-based machine learning classifiers (DecisionTable, JRip, OneR, PART and ZeroR). The findings have shown that the ICMP variables are implemented in the identification of ICMP attack, HTTP flood attack, and Slowloris at a high accuracy of approximately 99.7% using PART classifier. In addition, PART classifier has succeeded in classifying normal traffic from different DOS attacks at 100%. | 翻訳日:2023-01-10 05:28:59 公開日:2020-01-18 |
# 注意に基づくリカレントニューラルネットワークを用いたテキスト・画像生成 Text-to-Image Generation with Attention Based Recurrent Neural Networks ( http://arxiv.org/abs/2001.06658v1 ) ライセンス: Link先を確認 | Tehseen Zia, Shahan Arif, Shakeeb Murtaza, and Mirza Ahsan Ullah | (参考訳) テキスト記述に基づく条件付き画像モデリングは教師なし学習における比較的新しい領域である。
以前のアプローチでは、潜在変数モデルと生成逆ネットワークを使用している。
前者は変分オートエンコーダを用いて近似され、その性能を阻害する難解な推論に依存するが、後者はナッシュ平衡に基づく目的関数により訓練が不安定である。
我々は,安定なキャプションベース画像生成モデルを開発した。
このモデルは、単語からピクセルへの依存性を学ぶために注意に基づくエンコーダを使用する。
条件付き自己回帰型デコーダを用いて画素間の依存関係を学習し、画像を生成する。
実験はMicrosoft COCO上で行われ、MNIST-with-captionsデータセットと性能は構造類似度指数を用いて評価される。
その結果,提案モデルは現代の手法よりも優れた性能を示し,高品質な画像を生成する。
キーワード: 生成画像モデリング、自己回帰画像モデリング、キャプションベースの画像生成、ニューラルアテンション、リカレントニューラルネットワーク。 Conditional image modeling based on textual descriptions is a relatively new domain in unsupervised learning. Previous approaches use a latent variable model and generative adversarial networks. While the formers are approximated by using variational auto-encoders and rely on the intractable inference that can hamper their performance, the latter is unstable to train due to Nash equilibrium based objective function. We develop a tractable and stable caption-based image generation model. The model uses an attention-based encoder to learn word-to-pixel dependencies. A conditional autoregressive based decoder is used for learning pixel-to-pixel dependencies and generating images. Experimentations are performed on Microsoft COCO, and MNIST-with-captions datasets and performance is evaluated by using the Structural Similarity Index. Results show that the proposed model performs better than contemporary approaches and generate better quality images. Keywords: Generative image modeling, autoregressive image modeling, caption-based image generation, neural attention, recurrent neural networks. | 翻訳日:2023-01-10 05:22:34 公開日:2020-01-18 |
# 多視点フォトメトリックステレオ:空間変化等方性材料のためのロバストな解とベンチマークデータセット Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset for Spatially Varying Isotropic Materials ( http://arxiv.org/abs/2001.06659v1 ) ライセンス: Link先を確認 | Min Li, Zhenglong Zhou, Zhe Wu, Boxin Shi, Changyu Diao, and Ping Tan | (参考訳) 本稿では, 一般等方性材料に適したマルチビューフォトメトリックステレオ(mvps)技術を用いて, 3次元形状と空間変化の両方の反射率を捉える手法を提案する。
我々のアルゴリズムは遠近カメラや近接点光源に適している。
データキャプチャの設定はシンプルで、デジタルカメラ、ledライト、オプションの自動ターンテーブルのみで構成されています。
1つの視点から、一組の測光ステレオ画像を用いて、カメラと距離が同じ表面点を識別する。
複数視点からこれらの情報を収集し,動きからの構造と組み合わせ,完全な3次元形状を正確に再構築する。
基底BRDFの集合とその混合重みを各面点で同時に推定することにより、空間的に変化する2方向反射率分布関数(BRDF)を捕捉する。
実験では,最高精度のスタジオセットアップと最高のユーザビリティのためのデスクトップセットアップという2つの異なるセットアップでアルゴリズムを実証した。
実験によると, 撮影スタジオでは, 捕獲した形状は0.5mm, 捕獲した反射率は相対根平均二乗誤差(RMSE)が9%であった。
また,現在進行中のmvpを,新たに収集したベンチマークデータセット上で定量的に評価する。 We present a method to capture both 3D shape and spatially varying reflectance with a multi-view photometric stereo (MVPS) technique that works for general isotropic materials. Our algorithm is suitable for perspective cameras and nearby point light sources. Our data capture setup is simple, which consists of only a digital camera, some LED lights, and an optional automatic turntable. From a single viewpoint, we use a set of photometric stereo images to identify surface points with the same distance to the camera. We collect this information from multiple viewpoints and combine it with structure-from-motion to obtain a precise reconstruction of the complete 3D shape. The spatially varying isotropic bidirectional reflectance distribution function (BRDF) is captured by simultaneously inferring a set of basis BRDFs and their mixing weights at each surface point. In experiments, we demonstrate our algorithm with two different setups: a studio setup for highest precision and a desktop setup for best usability. According to our experiments, under the studio setting, the captured shapes are accurate to 0.5 millimeters and the captured reflectance has a relative root-mean-square error (RMSE) of 9%. We also quantitatively evaluate state-of-the-art MVPS on a newly collected benchmark dataset, which is publicly available for inspiring future research. | 翻訳日:2023-01-10 05:22:19 公開日:2020-01-18 |
# 木構造政策に基づく時間的言語接地のためのプログレッシブ強化学習 Tree-Structured Policy based Progressive Reinforcement Learning for Temporally Language Grounding in Video ( http://arxiv.org/abs/2001.06680v1 ) ライセンス: Link先を確認 | Jie Wu, Guanbin Li, Si Liu, Liang Lin | (参考訳) 非トリミングビデオの時間的言語基盤化は、ビデオ理解の新たな課題である。
既存の手法のほとんどは効率が悪く、解釈性に欠け、人間の知覚メカニズムから逸脱している。
ヒトの粗大な意思決定パラダイムにインスパイアされた新しい木構造政策に基づくプログレッシブ強化学習(TSP-PRL)フレームワークを定式化し、反復的洗練プロセスにより時間境界を逐次制御する。
セマンティクスの概念はポリシーのブランチとして明示的に表現され、複雑なポリシーを解釈可能なプリミティブアクションに効率的に分解するのに役立つ。
プログレッシブ強化学習は2つのタスク指向の報酬を通じて正しい信用割当を提供し、木構造政策における相互の促進を促進する。
本稿では,Charades-STAおよびActivityNetデータセット上でTSP-PRLを広範囲に評価し,既存の最先端手法と比較してTSP-PRLが競合性能を発揮することを示す実験結果を得た。 Temporally language grounding in untrimmed videos is a newly-raised task in video understanding. Most of the existing methods suffer from inferior efficiency, lacking interpretability, and deviating from the human perception mechanism. Inspired by human's coarse-to-fine decision-making paradigm, we formulate a novel Tree-Structured Policy based Progressive Reinforcement Learning (TSP-PRL) framework to sequentially regulate the temporal boundary by an iterative refinement process. The semantic concepts are explicitly represented as the branches in the policy, which contributes to efficiently decomposing complex policies into an interpretable primitive action. Progressive reinforcement learning provides correct credit assignment via two task-oriented rewards that encourage mutual promotion within the tree-structured policy. We extensively evaluate TSP-PRL on the Charades-STA and ActivityNet datasets, and experimental results show that TSP-PRL achieves competitive performance over existing state-of-the-art methods. | 翻訳日:2023-01-10 05:21:58 公開日:2020-01-18 |
# netnet: シングルショットオブジェクト検出を改善するための隣の消去・転送ネットワーク NETNet: Neighbor Erasing and Transferring Network for Better Single Shot Object Detection ( http://arxiv.org/abs/2001.06690v1 ) ライセンス: Link先を確認 | Yazhao Li, Yanwei Pang, Jianbing Shen, Jiale Cao, Ling Shao | (参考訳) リアルタイム検出の利点と性能向上により,近年,シングルショット検出器が注目されている。
複雑なスケールのバリエーションを解決するため、単一ショット検出器は複数のピラミッド層に基づいてスケール認識予測を行う。
しかし、ピラミッドの機能は十分にスケール認識できず、検出性能が制限される。
物体スケールの変動に起因する単発検出器の2つの一般的な問題は、(1)小さな物体が容易に見逃され、(2)大きな物体の突出部が物体として検出されることがある。
そこで本研究では,ピラミッドの特徴を再設定し,スケールアウェアな特徴を探索するNighbor Erasing and Transferring(NET)機構を提案する。
NETでは、NEM(Neighbor Erasing Module)は、大きなオブジェクトの健全な特徴を消去し、浅いレイヤ内の小さなオブジェクトの特徴を強調するように設計されている。
消去された特徴を転送し、深層で大きなオブジェクトをハイライトするために、隣接トランスファーモジュール(ntm)が導入された。
このメカニズムにより、スケールアウェアオブジェクト検出のためにnetnetと呼ばれるシングルショットネットワークが構築される。
さらに,最寄りのピラミッドの特徴を集約し,ネットを強化することを提案する。
NETNetは27 FPSで38.5%AP、MS COCOデータセットで55 FPSで32.0%APを達成した。
結果として、Netはリアルタイムかつ正確なオブジェクト検出のためのより良いトレードオフを達成する。 Due to the advantages of real-time detection and improved performance, single-shot detectors have gained great attention recently. To solve the complex scale variations, single-shot detectors make scale-aware predictions based on multiple pyramid layers. However, the features in the pyramid are not scale-aware enough, which limits the detection performance. Two common problems in single-shot detectors caused by object scale variations can be observed: (1) small objects are easily missed; (2) the salient part of a large object is sometimes detected as an object. With this observation, we propose a new Neighbor Erasing and Transferring (NET) mechanism to reconfigure the pyramid features and explore scale-aware features. In NET, a Neighbor Erasing Module (NEM) is designed to erase the salient features of large objects and emphasize the features of small objects in shallow layers. A Neighbor Transferring Module (NTM) is introduced to transfer the erased features and highlight large objects in deep layers. With this mechanism, a single-shot network called NETNet is constructed for scale-aware object detection. In addition, we propose to aggregate nearest neighboring pyramid features to enhance our NET. NETNet achieves 38.5% AP at a speed of 27 FPS and 32.0% AP at a speed of 55 FPS on MS COCO dataset. As a result, NETNet achieves a better trade-off for real-time and accurate object detection. | 翻訳日:2023-01-10 05:21:39 公開日:2020-01-18 |
# 臨床報告における有意差 Ranking Significant Discrepancies in Clinical Reports ( http://arxiv.org/abs/2001.06674v1 ) ライセンス: Link先を確認 | Sean MacAvaney, Arman Cohan, Nazli Goharian, Ross Filice | (参考訳) 医療ミスは公衆衛生上の問題であり、世界中で死因となっている。
多くの医療センターや病院では、医療従事者が予備的な医療報告書を書き、報告は後にレビューされ、改訂され、より経験豊富な医師によって確定する報告システムを使用している。
修正は様式的から批判的エラーの修正やケースの誤解まで様々である。
毎日大量のレポートが書き込まれているため、手作業ですべての最終レポートを徹底的にレビューして、そのようなエラーを見つけ、そこから学ぶことは困難である。
この課題に対処するために,レポートの予備版と最終版の間で,テキスト的およびオントロジ的に重なり合う新しいランキング手法を提案する。
このアプローチは、バージョン間の相違度に基づいて、レポートのランク付けを学ぶ。
これにより、医師は、その解釈が主治医(レポートを確定した医師)の解釈と大きく異なる報告から容易に識別し、学習することができる。
これは潜在的なエラーを解明し、医療従事者がそのようなエラーから学ぶのを助ける上で重要なステップであり、長期的には患者のケアを改善する。
放射線医学レポートのデータセット上でモデルを評価し,提案手法が従来のアプローチとより最近の言語モデルの両方を4.5%から15.4%上回ることを示した。 Medical errors are a major public health concern and a leading cause of death worldwide. Many healthcare centers and hospitals use reporting systems where medical practitioners write a preliminary medical report and the report is later reviewed, revised, and finalized by a more experienced physician. The revisions range from stylistic to corrections of critical errors or misinterpretations of the case. Due to the large quantity of reports written daily, it is often difficult to manually and thoroughly review all the finalized reports to find such errors and learn from them. To address this challenge, we propose a novel ranking approach, consisting of textual and ontological overlaps between the preliminary and final versions of reports. The approach learns to rank the reports based on the degree of discrepancy between the versions. This allows medical practitioners to easily identify and learn from the reports in which their interpretation most substantially differed from that of the attending physician (who finalized the report). This is a crucial step towards uncovering potential errors and helping medical practitioners to learn from such errors, thus improving patient-care in the long run. We evaluate our model on a dataset of radiology reports and show that our approach outperforms both previously-proposed approaches and more recent language models by 4.5% to 15.4%. | 翻訳日:2023-01-10 05:21:17 公開日:2020-01-18 |
# 結合キャビティ中のKerr媒体が量子状態伝達に及ぼす影響 Effects of Kerr medium in coupled cavities on quantum state transfer ( http://arxiv.org/abs/2001.06608v1 ) ライセンス: Link先を確認 | Manosh T.M., Muhammed Ashefas C.H. and Ramesh Babu Thayyullathil | (参考訳) 量子状態伝達におけるKerr型非線形媒体の効果について検討する。
我々は、異なるカップリングスキームとKerrメディアパラメータ$p$と$\omega_{{K}}$の効果を調査した。
接続チャネルに導入されたKerr媒体は、量子状態伝達のコントローラとして機能することを発見した。
数値シミュレーションは断熱近似を取らずに行われる。
回転波近似は、低い結合状態においてのみ原子-キャビティ相互作用において用いられる。 We study the effect of Kerr type nonlinear medium in quantum state transfer. We have investigated the effect of different coupling schemes and Kerr medium parameters $p$ and $\omega_{{K}}$. We found that, the Kerr medium introduced in the connection channel can act like a controller for quantum state transfer. The numerical simulations are performed without taking the adiabatic approximation. Rotating wave approximation is used in the atom-cavity interaction only in the lower coupling regime. | 翻訳日:2023-01-10 05:20:41 公開日:2020-01-18 |
# モデルに基づくアクター批判法の学習速度に及ぼす異なる大きさのスパース報酬の影響 Effects of sparse rewards of different magnitudes in the speed of learning of model-based actor critic methods ( http://arxiv.org/abs/2001.06725v1 ) ライセンス: Link先を確認 | Juan Vargas, Lazar Andjelic, Amir Barati Farimani | (参考訳) モデルベースの深層強化学習では,アクタの批判的手法は,通常,2つの可能な結果のみを反映した決定論的バイナリ報酬関数を必要とする。
我々の仮説は、トレーニング中に外部の環境圧力を適用することで、エージェントにより速く学習させることが、より高い報酬を得る能力に悪影響を及ぼすというものである。
As such, we deviate from the classical paradigm of sparse rewards and add a uniformly sampled reward value to the baseline reward to show that (1) sample efficiency of the training process can be correlated to the adversity experienced during training, (2) it is possible to achieve higher performance in less time and with less resources, (3) we can reduce the performance variability experienced seed over seed, (4) there is a maximum point after which more pressure will not generate better results, and (5) that random positive incentives have an adverse effect when using a negative reward strategy, making an agent under those conditions learn poorly and more slowly.
これらの結果は、よく知られたMujoco環境における隠れ経験リプレイを用いたDeep Deterministic Policy Gradients(Deep Deterministic Policy Gradients)に有効であることが示されているが、他の手法や環境にも一般化できると論じている。 Actor critic methods with sparse rewards in model-based deep reinforcement learning typically require a deterministic binary reward function that reflects only two possible outcomes: if, for each step, the goal has been achieved or not. Our hypothesis is that we can influence an agent to learn faster by applying an external environmental pressure during training, which adversely impacts its ability to get higher rewards. As such, we deviate from the classical paradigm of sparse rewards and add a uniformly sampled reward value to the baseline reward to show that (1) sample efficiency of the training process can be correlated to the adversity experienced during training, (2) it is possible to achieve higher performance in less time and with less resources, (3) we can reduce the performance variability experienced seed over seed, (4) there is a maximum point after which more pressure will not generate better results, and (5) that random positive incentives have an adverse effect when using a negative reward strategy, making an agent under those conditions learn poorly and more slowly. These results have been shown to be valid for Deep Deterministic Policy Gradients using Hindsight Experience Replay in a well known Mujoco environment, but we argue that they could be generalized to other methods and environments as well. | 翻訳日:2023-01-10 05:14:13 公開日:2020-01-18 |
# 高度機械学習を用いたインテリジェント道路検査 : スマートモビリティと交通保守システムのためのハイブリッド予測モデル Intelligent Road Inspection with Advanced Machine Learning; Hybrid Prediction Models for Smart Mobility and Transportation Maintenance Systems ( http://arxiv.org/abs/2001.08583v1 ) ライセンス: Link先を確認 | Nader Karballaeezadeh, Farah Zaremotekhases, Shahaboddin Shamshirband, Amir Mosavi, Narjes Nabipour, Peter Csiba, Annamaria R. Varkonyi-Koczy | (参考訳) 移動・輸送維持システムにおける予測モデルは機械学習を用いて劇的に改善されている。
本稿では,インテリジェント道路検査のための新しい機械学習モデルを提案する。
舗装条件指標(PCI)に基づく従来の道路検査システムは、しばしば重要な安全、エネルギー、コスト問題と関連付けられている。
また,提案モデルでは,落下重量偏向計(fwd)による表面偏向データを用いてpciの予測を行う。
機械学習手法は、単一多層パーセプトロン(MLP)と放射基底関数(RBF)ニューラルネットワーク、およびそれらのハイブリッドである、すなわち、レバンス・マルカート(MLP-LM)、スケールド共役勾配(MLP-SCG)、帝国主義競合(RBF-ICA)、遺伝的アルゴリズム(RBF-GA)である。
さらに、この結果を組み合わせて、モデリングの精度を向上させるために、committee machine intelligent systems (cmis) 法が採用された。
分析の結果は、平均%相対誤差(apre)、平均絶対パーセント相対誤差(aapre)、根平均二乗誤差(rmse)、標準誤差(sd)の4つの基準を用いて検証された。
CMISモデルはAPRE=2.3303、APRE=11.6768、RMSE=12.0056、SD=0.0210の有望な結果で他のモデルより優れている。 Prediction models in mobility and transportation maintenance systems have been dramatically improved through using machine learning methods. This paper proposes novel machine learning models for intelligent road inspection. The traditional road inspection systems based on the pavement condition index (PCI) are often associated with the critical safety, energy and cost issues. Alternatively, the proposed models utilize surface deflection data from falling weight deflectometer (FWD) tests to predict the PCI. Machine learning methods are the single multi-layer perceptron (MLP) and radial basis function (RBF) neural networks as well as their hybrids, i.e., Levenberg-Marquardt (MLP-LM), scaled conjugate gradient (MLP-SCG), imperialist competitive (RBF-ICA), and genetic algorithms (RBF-GA). Furthermore, the committee machine intelligent systems (CMIS) method was adopted to combine the results and improve the accuracy of the modeling. The results of the analysis have been verified through using four criteria of average percent relative error (APRE), average absolute percent relative error (AAPRE), root mean square error (RMSE), and standard error (SD). The CMIS model outperforms other models with the promising results of APRE=2.3303, AAPRE=11.6768, RMSE=12.0056, and SD=0.0210. | 翻訳日:2023-01-10 05:13:30 公開日:2020-01-18 |
# cube2net: Data Cube Organizationによる効率的なクエリ特化ネットワーク構築 cube2net: Efficient Query-Specific Network Construction with Data Cube Organization ( http://arxiv.org/abs/2002.00841v1 ) ライセンス: Link先を確認 | Carl Yang, Mengxiong Liu, Frank He, Jian Peng, Jiawei Han | (参考訳) ネットワークは相互作用のあるオブジェクトをモデル化するのに広く使われ、様々な下流アプリケーションを可能にした。
しかし、現実世界では、ネットワークマイニングは特定のクエリセットのオブジェクトに対して行われることが多く、データセット内のすべてのオブジェクトを含むネットワークの構築と計算は不要である。
本稿では,クエリ固有のネットワーク構築の問題に初めて対処し,既存のネットワークマイニングアルゴリズムの効率ボトルネックを解消し,様々な下流タスクを容易にすることを提案する。
複雑な属性を持つ実世界の大規模ネットワークを扱うために,ネットワークオブジェクトの基本的な属性を整理するために,よく開発されたデータキューブ技術を活用することを提案する。
次に、効率的な強化学習アルゴリズムを開発し、データ立方体構造を自動探索し、最適なクエリ固有ネットワークを構築する。
異なる実世界の大規模データセット上での2つの古典的ネットワークマイニングタスクの広範な実験により、提案する立方体2ネットパイプラインは、データ立方体や強化学習を使わずに、クエリ固有のネットワーク構築においてより効率的で効率的であることを示す。 Networks are widely used to model objects with interactions and have enabled various downstream applications. However, in the real world, network mining is often done on particular query sets of objects, which does not require the construction and computation of networks including all objects in the datasets. In this work, for the first time, we propose to address the problem of query-specific network construction, to break the efficiency bottlenecks of existing network mining algorithms and facilitate various downstream tasks. To deal with real-world massive networks with complex attributes, we propose to leverage the well-developed data cube technology to organize network objects w.r.t. their essential attributes. An efficient reinforcement learning algorithm is then developed to automatically explore the data cube structures and construct the optimal query-specific networks. With extensive experiments of two classic network mining tasks on different real-world large datasets, we show that our proposed cube2net pipeline is general, and much more effective and efficient in query-specific network construction, compared with other methods without the leverage of data cube or reinforcement learning. | 翻訳日:2023-01-10 05:12:35 公開日:2020-01-18 |
# 外乱の存在下での制御障壁関数を用いたニューラルネットワーク制御の訓練 Training Neural Network Controllers Using Control Barrier Functions in the Presence of Disturbances ( http://arxiv.org/abs/2001.08088v1 ) ライセンス: Link先を確認 | Shakiba Yaghoubi, Georgios Fainekos, Sriram Sankaranarayanan | (参考訳) 制御バリア関数 (CBF) は, 非線形システムに対する安全なフィードバック制御法の設計に最近利用されている。
これらのフィードバック制御方法は、通常、オンライン二次プログラム(QP)を解くことで次の制御入力を計算する。
リアルタイムにQPを解くことは、資源制約システムの計算にコストがかかるプロセスである。
本研究では,CBF制約を満たすニューラルネットワークに基づくフィードバックコントローラの学習に模倣学習を用いることを提案する。
また,外乱下におけるシステムに対して,新しい高次CBFのクラスを開発する。
風や電流などの外乱を受ける一輪車モデルの枠組みを実証する。 Control Barrier Functions (CBF) have been recently utilized in the design of provably safe feedback control laws for nonlinear systems. These feedback control methods typically compute the next control input by solving an online Quadratic Program (QP). Solving QP in real-time can be a computationally expensive process for resource constraint systems. In this work, we propose to use imitation learning to learn Neural Network-based feedback controllers which will satisfy the CBF constraints. In the process, we also develop a new class of High Order CBF for systems under external disturbances. We demonstrate the framework on a unicycle model subject to external disturbances, e.g., wind or currents. | 翻訳日:2023-01-10 05:12:17 公開日:2020-01-18 |
# GPUベース並列MAX-MIN Antシステムの実装 Implementing a GPU-based parallel MAX-MIN Ant System ( http://arxiv.org/abs/2003.11902v1 ) ライセンス: Link先を確認 | Rafa{\l} Skinderowicz | (参考訳) MAX-MIN Ant System (MMAS) は、多くの難しい組合せ最適化問題に対する十分解を見つけるのに効率的であることが証明された、最もよく知られているAnt Colony Optimization (ACO)アルゴリズムの1つである。
ムーアの法則のスローダウンと、汎用計算を高速に実行できるグラフィックス処理ユニット(GPU)の可用性は、GPUベースのACO実装の開発に多大な研究成果をもたらした。
本稿では、GPUベースの並列MMAS実装を改善するための新しいアイデアについて論じ、その後の2つのNvidia GPUアーキテクチャによって提供されるコンピューティングパワーをよりよく活用できるようにする。
具体的には, 重み付き貯留層サンプリングアルゴリズムに基づいて, mmas と他の aco アルゴリズムの核となるノード選択手順を並列に実装する手法を提案する。
また、ACOのソリューション構築段階で使用される別のキーコンポーネントであるタブリスト構造をメモリ効率で実装する。
提案手法は,既存手法と組み合わせて総計6種類のMMASが提案され,198都市から3,795都市を対象とする旅行セールスマン問題(TSP)の事例で評価された。
その結果、mmmsの実装は最先端のgpuベースとマルチコアのcpuベースの並列aco実装に匹敵することがわかった。実際、nvidia v100 volta gpuで得られた時間は、それぞれ7.18xと21.79x小さくなった。
提案されたMMAS変種のうち最速のものは、1,002都市のインスタンスを解く際に毎秒100万以上の候補解を生成することができる。
さらに,2オプト局所探索ヒューリスティックと組み合わせて提案した並列MMASは,最大18,512ノードのTSPインスタンスに対して高品質な解を求める。 The MAX-MIN Ant System (MMAS) is one of the best-known Ant Colony Optimization (ACO) algorithms proven to be efficient at finding satisfactory solutions to many difficult combinatorial optimization problems. The slow-down in Moore's law, and the availability of graphics processing units (GPUs) capable of conducting general-purpose computations at high speed, has sparked considerable research efforts into the development of GPU-based ACO implementations. In this paper, we discuss a range of novel ideas for improving the GPU-based parallel MMAS implementation, allowing it to better utilize the computing power offered by two subsequent Nvidia GPU architectures. Specifically, based on the weighted reservoir sampling algorithm we propose a novel parallel implementation of the node selection procedure, which is at the heart of the MMAS and other ACO algorithms. We also present a memory-efficient implementation of another key-component -- the tabu list structure -- which is used in the ACO's solution construction stage. The proposed implementations, combined with the existing approaches, lead to a total of six MMAS variants, which are evaluated on a set of Traveling Salesman Problem (TSP) instances ranging from 198 to 3,795 cities. The results show that our MMAS implementation is competitive with state-of-the-art GPU-based and multi-core CPU-based parallel ACO implementations: in fact, the times obtained for the Nvidia V100 Volta GPU were up to 7.18x and 21.79x smaller, respectively. The fastest of the proposed MMAS variants is able to generate over 1 million candidate solutions per second when solving a 1,002-city instance. Moreover, we show that, combined with the 2-opt local search heuristic, the proposed parallel MMAS finds high-quality solutions for the TSP instances with up to 18,512 nodes. | 翻訳日:2023-01-10 05:11:56 公開日:2020-01-18 |
# メディア法医学とディープフェイク:概要 Media Forensics and DeepFakes: an overview ( http://arxiv.org/abs/2001.06564v1 ) ライセンス: Link先を確認 | Luisa Verdoliva | (参考訳) 近年の急速な進歩により、マルチメディアコンテンツを生成・操作する技術は、非常に高度なリアリズムを保証できるようになった。
リアルメディアと合成メディアの境界は非常に薄くなっている。
これは、クリエイティブアート、広告、映画制作、ビデオゲームなど、さまざまな分野のエキサイティングなアプリケーションへの扉を開くものだ。
一方、セキュリティの脅威は大きい。
ウェブ上で無料で利用可能なソフトウェアパッケージは、特別なスキルのない個人でも、非常に現実的な偽画像やビデオを作成することができる。
いわゆるディープフェイクは、選挙中の世論の操作、不正行為、不信、脅迫に使用できる。
潜在的な虐待は人間の想像力によってのみ制限される。
したがって、偽マルチメディアコンテンツを検出し、危険な偽情報の拡散を回避できる自動化ツールが緊急に必要となる。
本稿では,視覚メディアの完全性を検証する手法,すなわち操作された画像や映像の検出について分析することを目的とした。
ディープフェイクの新たな現象や、法医学アナリストの観点からは、現代のデータ駆動法医学的手法に特に重点が置かれる。
この分析は、現在の法医学ツールの限界、最も関連する問題、今後の課題、研究の今後の方向性を強調するのに役立つだろう。 With the rapid progress of recent years, techniques that generate and manipulate multimedia content can now guarantee a very advanced level of realism. The boundary between real and synthetic media has become very thin. On the one hand, this opens the door to a series of exciting applications in different fields such as creative arts, advertising, film production, video games. On the other hand, it poses enormous security threats. Software packages freely available on the web allow any individual, without special skills, to create very realistic fake images and videos. So-called deepfakes can be used to manipulate public opinion during elections, commit fraud, discredit or blackmail people. Potential abuses are limited only by human imagination. Therefore, there is an urgent need for automated tools capable of detecting false multimedia content and avoiding the spread of dangerous false information. This review paper aims to present an analysis of the methods for visual media integrity verification, that is, the detection of manipulated images and videos. Special emphasis will be placed on the emerging phenomenon of deepfakes and, from the point of view of the forensic analyst, on modern data-driven forensic methods. The analysis will help to highlight the limits of current forensic tools, the most relevant issues, the upcoming challenges, and suggest future directions for research. | 翻訳日:2023-01-10 05:11:24 公開日:2020-01-18 |
# ニューラルダイアログ生成のための適応パラメータ化 Adaptive Parameterization for Neural Dialogue Generation ( http://arxiv.org/abs/2001.06626v1 ) ライセンス: Link先を確認 | Hengyi Cai, Hongshen Chen, Cheng Zhang, Yonghao Song, Xiaofang Zhao, Dawei Yin | (参考訳) ニューラルネットワークシステムはシーケンス・ツー・シーケンス(SEQ2SEQ)パラダイムに基づいた応答を生成する。
典型的には、モデルは与えられた入力コンテキストに対して応答を生成するために単一の学習パラメータセットを備えている。
多様な会話に直面する場合、適応性はかなり制限され、モデルが一般的な応答を生成する傾向がある。
本研究では,会話特有のパラメータ化を伴う様々な会話を管理する,"bf ada}ptive {\bf n}eural {\bf d}ialogue生成モデル, \textsc{adand} を提案する。
各会話に対して、モデルは入力コンテキストを参照してエンコーダ・デコーダのパラメータを生成する。
特に,文脈認識機構とトピック認識パラメータ化機構の2つの適応パラメータ化機構を提案する。
context-awareパラメータ化は、与えられたコンテキストのローカルセマンティクスをキャプチャすることで、パラメータを直接生成する。
トピックアウェアパラメータ化は、まず与えられたコンテキストの潜在トピックを推論し、次に分布トピックに関するパラメータを生成することで、類似トピックとの会話間のパラメータ共有を可能にする。
大規模実世界対話型データセットを用いた大規模実験の結果, 定量的指標と人的評価の両方において, 優れた性能が得られた。 Neural conversation systems generate responses based on the sequence-to-sequence (SEQ2SEQ) paradigm. Typically, the model is equipped with a single set of learned parameters to generate responses for given input contexts. When confronting diverse conversations, its adaptability is rather limited and the model is hence prone to generate generic responses. In this work, we propose an {\bf Ada}ptive {\bf N}eural {\bf D}ialogue generation model, \textsc{AdaND}, which manages various conversations with conversation-specific parameterization. For each conversation, the model generates parameters of the encoder-decoder by referring to the input context. In particular, we propose two adaptive parameterization mechanisms: a context-aware and a topic-aware parameterization mechanism. The context-aware parameterization directly generates the parameters by capturing local semantics of the given context. The topic-aware parameterization enables parameter sharing among conversations with similar topics by first inferring the latent topics of the given context and then generating the parameters with respect to the distributional topics. Extensive experiments conducted on a large-scale real-world conversational dataset show that our model achieves superior performance in terms of both quantitative metrics and human evaluations. | 翻訳日:2023-01-10 05:04:34 公開日:2020-01-18 |
# 深層強化学習による高密度・動的環境のマルチエージェント運動計画 Multi-agent Motion Planning for Dense and Dynamic Environments via Deep Reinforcement Learning ( http://arxiv.org/abs/2001.06627v1 ) ライセンス: Link先を確認 | Samaneh Hosseini Semnani, Hugh Liu, Michael Everett, Anton de Ruiter, Jonathan P. How | (参考訳) 本稿では,高密度・動的環境における分散動作計画問題の解法として,深部強化学習(RL)とFMP(Force-based Motion Planning)のハイブリッドアルゴリズムを提案する。
RLとFMPのアルゴリズムにはそれぞれ独自の制限がある。
FMPは時間最適経路を生成できず、既存のRLソリューションは高密度環境では衝突のない経路を生成できない。
そこで,我々はまず,事前教師付き学習(SL)ステップの要求を解消するだけでなく,混み合った環境下での衝突の可能性を低減できる新たな報奨関数を導入することにより,最近のRL手法の性能向上を試みた。
これは改善したが、まだ多くの障害ケースがあった。
そこで我々は,よりシンプルなFMPアプローチをスタント,シンプル,高リスクのケースで活用するハイブリッドアプローチを開発し,FMPが最適経路を生成できない場合に対してRLを継続する。
また,GA3C-CADRLアルゴリズムを3次元環境に拡張する。
シミュレーションの結果、提案アルゴリズムは深部RLとFMPのアルゴリズムより優れており、深部RLよりも最大50%のシナリオが成功し、FMPよりも目標を達成するのに最大75%の時間を要した。 This paper introduces a hybrid algorithm of deep reinforcement learning (RL) and Force-based motion planning (FMP) to solve distributed motion planning problem in dense and dynamic environments. Individually, RL and FMP algorithms each have their own limitations. FMP is not able to produce time-optimal paths and existing RL solutions are not able to produce collision-free paths in dense environments. Therefore, we first tried improving the performance of recent RL approaches by introducing a new reward function that not only eliminates the requirement of a pre supervised learning (SL) step but also decreases the chance of collision in crowded environments. That improved things, but there were still a lot of failure cases. So, we developed a hybrid approach to leverage the simpler FMP approach in stuck, simple and high-risk cases, and continue using RL for normal cases in which FMP can't produce optimal path. Also, we extend GA3C-CADRL algorithm to 3D environment. Simulation results show that the proposed algorithm outperforms both deep RL and FMP algorithms and produces up to 50% more successful scenarios than deep RL and up to 75% less extra time to reach goal than FMP. | 翻訳日:2023-01-10 05:03:56 公開日:2020-01-18 |
# グラフ順序付け:学習の最適化に向けて Graph Ordering: Towards the Optimal by Learning ( http://arxiv.org/abs/2001.06631v1 ) ライセンス: Link先を確認 | Kangfei Zhao, Yu Rong, Jeffrey Xu Yu, Junzhou Huang, Hao Zhang | (参考訳) グラフ表現学習は、ノード分類、リンク予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
これらのモデルは、通常、頂点情報を異なる粒度で保存し、離散空間の問題を連続空間における機械学習タスクに還元するように設計されている。
しかし、グラフ圧縮やエッジパーティションのようなグラフアプリケーションでは、実りある進歩にかかわらず、グラフ表現学習タスクに還元するのは非常に困難である。
さらに、これらの問題は、グラフ順序付けという重要なNPハード組合せ最適化問題である、特定のグラフのグローバルレイアウトの再構成と密接に関連している。
本稿では,このような応用の背後にあるグラフ順序問題に対して,新しい学習手法を用いて攻撃する手法を提案する。
事前定義されたヒューリスティックスに基づく欲望アルゴリズムと区別して,部分頂点順序集合から隠れた局所構造をキャプチャするディープ・オーダー・ネットワーク(don)を提案する。
サンプル部分順序によって監督され、DONは目に見えない組み合わせを推測する能力を持つ。
さらに,donのトレーニング空間における組合せ爆発を緩和し,効率的な部分頂点順序サンプリングを実現するために,強化学習モデルであるポリシーネットワークを用いて,donのトレーニングフェーズにおける部分順序サンプリング確率を自動的に調整する。
この目的のために、Policy Networkはトレーニング効率を改善し、DONをより効果的なモデルに自動的に進化させるよう誘導することができる。
合成データと実データの両方に関する包括的な実験は、DON-RLが現在の最先端ヒューリスティックアルゴリズムを一貫して上回っていることを示す。
グラフ圧縮とエッジ分割に関する2つのケーススタディは、実応用におけるDON-RLの可能性を示している。 Graph representation learning has achieved a remarkable success in many graph-based applications, such as node classification, link prediction, and community detection. These models are usually designed to preserve the vertex information at different granularity and reduce the problems in discrete space to some machine learning tasks in continuous space. However, regardless of the fruitful progress, for some kind of graph applications, such as graph compression and edge partition, it is very hard to reduce them to some graph representation learning tasks. Moreover, these problems are closely related to reformulating a global layout for a specific graph, which is an important NP-hard combinatorial optimization problem: graph ordering. In this paper, we propose to attack the graph ordering problem behind such applications by a novel learning approach. Distinguished from greedy algorithms based on predefined heuristics, we propose a neural network model: Deep Order Network (DON) to capture the hidden locality structure from partial vertex order sets. Supervised by sampled partial order, DON has the ability to infer unseen combinations. Furthermore, to alleviate the combinatorial explosion in the training space of DON and make the efficient partial vertex order sampling , we employ a reinforcement learning model: the Policy Network, to adjust the partial order sampling probabilities during the training phase of DON automatically. To this end, the Policy Network can improve the training efficiency and guide DON to evolve towards a more effective model automatically. Comprehensive experiments on both synthetic and real data validate that DON-RL outperforms the current state-of-the-art heuristic algorithm consistently. Two case studies on graph compression and edge partitioning demonstrate the potential power of DON-RL in real applications. | 翻訳日:2023-01-10 05:03:36 公開日:2020-01-18 |
# AI対応システムのためのソフトウェア工学教育 Teaching Software Engineering for AI-Enabled Systems ( http://arxiv.org/abs/2001.06691v1 ) ライセンス: Link先を確認 | Christian K\"astner, Eunsuk Kang | (参考訳) ソフトウェアエンジニアは、インテリジェントなシステムを構築する際に、何十年もの経験と、たとえ信頼できないコンポーネントで構築されたとしても、スケーラブルでレスポンシブでロバストなシステムを構築するための方法を描くための、大きな専門知識を持っている。
人工知能や機械学習(ml)コンポーネントを持つシステムは、新たな課題を引き起こし、注意深いエンジニアリングを必要とする。
我々は、MLのバックグラウンドを持つ学生にソフトウェア工学のスキルを教える新しいコースを設計した。
特に、人工的な条件下でモデリングテクニックを教える伝統的なMLコース、講義や課題、大規模で変化の激しいデータセットによるリアリズム、堅牢で進化可能なインフラストラクチャ、倫理と公正性も考慮した目的のある要件エンジニアリングなどを超えています。
コースとインフラと経験を共有し、コースを初めて教えることから得られるすべての材料について説明する。 Software engineers have significant expertise to offer when building intelligent systems, drawing on decades of experience and methods for building systems that are scalable, responsive and robust, even when built on unreliable components. Systems with artificial-intelligence or machine-learning (ML) components raise new challenges and require careful engineering. We designed a new course to teach software-engineering skills to students with a background in ML. We specifically go beyond traditional ML courses that teach modeling techniques under artificial conditions and focus, in lecture and assignments, on realism with large and changing datasets, robust and evolvable infrastructure, and purposeful requirements engineering that considers ethics and fairness as well. We describe the course and our infrastructure and share experience and all material from teaching the course for the first time. | 翻訳日:2023-01-10 05:03:09 公開日:2020-01-18 |
# グラフニューラルネットワークを用いた時系列データからのネットワーク構造とダイナミクスの推定 Inference for Network Structure and Dynamics from Time Series Data via Graph Neural Network ( http://arxiv.org/abs/2001.06576v1 ) ライセンス: Link先を確認 | Mengyuan Chen, Jiang Zhang, Zhang Zhang, Lun Du, Qiao Hu, Shuo Wang, Jiaqi Zhu | (参考訳) 様々な背景におけるネットワーク構造は、社会的、技術的、生物学的システムにおいて重要な役割を果たす。
しかし、実例における観測可能なネットワーク構造は、しばしば測定エラーやプライベート保護の問題のために不完全または不完全である。
したがって、完全なネットワーク構造を推測することは複雑なシステムを理解するのに有用である。
既存の研究は、接続やノードに関する情報を部分的あるいは全く含まないネットワーク構造を推測する問題を完全には解決していない。
本稿では,ネットワークダイナミクスが生成する時系列データを用いてこの問題に取り組む。
我々は、動的時系列データに基づくネットワーク推論問題を、将来の状態を予測するためのエラーを最小限に抑える問題とみなし、Gumbel Graph Network(GGN)と呼ばれる新しいデータ駆動ディープラーニングモデルを提案し、ネットワーク再構成とネットワーク補完という2つの種類のネットワーク推論問題を解く。
ネットワーク再構築問題に対して、GGNフレームワークは、動的学習器とネットワークジェネレータの2つのモジュールを含む。
ネットワーク補完問題のために、GGN は States Learner と呼ばれる新しいモジュールを追加し、ネットワークの欠落部分を推測する。
離散時系列データと連続時系列データの実験を行った。
実験の結果,ネットワーク再構築作業において,最大100%のネットワーク構造を再構築可能であることがわかった。
モデルはまた、いくつかのノードが欠けている場合、90%の精度で構造の未知の部分も推測することができる。
そして、欠落ノードの分数の増加とともに精度は低下する。
我々のフレームワークは、ネットワーク構造が取得困難で時系列データが豊富である広いアプリケーション領域を持っているかもしれない。 Network structures in various backgrounds play important roles in social, technological, and biological systems. However, the observable network structures in real cases are often incomplete or unavailable due to measurement errors or private protection issues. Therefore, inferring the complete network structure is useful for understanding complex systems. The existing studies have not fully solved the problem of inferring network structure with partial or no information about connections or nodes. In this paper, we tackle the problem by utilizing time series data generated by network dynamics. We regard the network inference problem based on dynamical time series data as a problem of minimizing errors for predicting future states and proposed a novel data-driven deep learning model called Gumbel Graph Network (GGN) to solve the two kinds of network inference problems: Network Reconstruction and Network Completion. For the network reconstruction problem, the GGN framework includes two modules: the dynamics learner and the network generator. For the network completion problem, GGN adds a new module called the States Learner to infer missing parts of the network. We carried out experiments on discrete and continuous time series data. The experiments show that our method can reconstruct up to 100% network structure on the network reconstruction task. While the model can also infer the unknown parts of the structure with up to 90% accuracy when some nodes are missing. And the accuracy decays with the increase of the fractions of missing nodes. Our framework may have wide application areas where the network structure is hard to obtained and the time series data is rich. | 翻訳日:2023-01-10 05:02:54 公開日:2020-01-18 |
# リアルタイム入札におけるスケーラブル入札景観予測 Scalable Bid Landscape Forecasting in Real-time Bidding ( http://arxiv.org/abs/2001.06587v1 ) ライセンス: Link先を確認 | Aritra Ghosh, Saayan Mitra, Somdeb Sarkhel, Jason Xie, Gang Wu, Viswanathan Swaminathan | (参考訳) プログラム広告では、広告スロットは通常、第2価格(sp)オークションでリアルタイムに販売される。
最高入札広告主は勝つが、2番目に高い入札(勝利価格として知られる)のみを支払う。
SPでは、各入札者の支配的な戦略は、入札者の視点から真の価値を入札することである。
しかし、予算制約のある現実的な環境では、真の価値の入札は準最適戦略である。
したがって、最適な入札戦略を考案するには、勝つ価格分布を正確に学ぶことが最も重要である。
さらに、広告主に代わって入札を行うデマンドサイドプラットフォーム(dsp)は、オークションに勝った場合の勝利価格を観察します。
競売に負けた場合、DSPは入札価格を未知の当選価格の低いバウンドとしてのみ扱うことができる。
文献では、一般的に検閲された回帰は、そのような部分的に観察されたデータをモデル化するために使用される。
検閲回帰における一般的な仮定は、勝利価格が固定分散(homoscedastic)の一様分布(ほとんどがガウス分布)から引き出されるということである。
しかし、実際にはこれらの仮定はしばしば違反する。
我々はこれらの仮定を緩和し、混合密度検閲ネットワークと同様に、ヘテロセダスティック完全パラメトリック回帰手法を提案する。
我々のアプローチは、検閲された回帰を一般化するだけでなく、任意の分散実世界のデータをモデル化する柔軟性も提供する。
本手法の有効性を実証するため,価格推定のための公開データセットの実験的評価を行った。
さらに,当社のアルゴリズムを需要側プラットフォームとして評価し,ベースラインソリューションと比較して大幅な改善が達成されている。 In programmatic advertising, ad slots are usually sold using second-price (SP) auctions in real-time. The highest bidding advertiser wins but pays only the second-highest bid (known as the winning price). In SP, for a single item, the dominant strategy of each bidder is to bid the true value from the bidder's perspective. However, in a practical setting, with budget constraints, bidding the true value is a sub-optimal strategy. Hence, to devise an optimal bidding strategy, it is of utmost importance to learn the winning price distribution accurately. Moreover, a demand-side platform (DSP), which bids on behalf of advertisers, observes the winning price if it wins the auction. For losing auctions, DSPs can only treat its bidding price as the lower bound for the unknown winning price. In literature, typically censored regression is used to model such partially observed data. A common assumption in censored regression is that the winning price is drawn from a fixed variance (homoscedastic) uni-modal distribution (most often Gaussian). However, in reality, these assumptions are often violated. We relax these assumptions and propose a heteroscedastic fully parametric censored regression approach, as well as a mixture density censored network. Our approach not only generalizes censored regression but also provides flexibility to model arbitrarily distributed real-world data. Experimental evaluation on the publicly available dataset for winning price estimation demonstrates the effectiveness of our method. Furthermore, we evaluate our algorithm on one of the largest demand-side platforms and significant improvement has been achieved in comparison with the baseline solutions. | 翻訳日:2023-01-10 05:02:32 公開日:2020-01-18 |
# 定量PETイメージングにおける機械学習 Machine Learning in Quantitative PET Imaging ( http://arxiv.org/abs/2001.06597v1 ) ライセンス: Link先を確認 | Tonghe Wang, Yang Lei, Yabo Fu, Walter J. Curran, Tian Liu, Xiaofeng Yang | (参考訳) 本稿では, 定量的ポジトロン放射トモグラフィ(PET)の機械学習による研究について概説する。
具体的には,PETの減衰補正と低数のPET再構成における機械学習手法の最近の進歩を,提案手法をリストアップして比較し,提案手法について検討した。
レビューされた研究の貢献と課題は、議論の後にまとめられ、強調された。 This paper reviewed the machine learning-based studies for quantitative positron emission tomography (PET). Specifically, we summarized the recent developments of machine learning-based methods in PET attenuation correction and low-count PET reconstruction by listing and comparing the proposed methods, study designs and reported performances of the current published studies with brief discussion on representative studies. The contributions and challenges among the reviewed studies were summarized and highlighted in the discussion part followed by. | 翻訳日:2023-01-10 05:01:38 公開日:2020-01-18 |
# 適応確率最適化 Adaptive Stochastic Optimization ( http://arxiv.org/abs/2001.06699v1 ) ライセンス: Link先を確認 | Frank E. Curtis and Katya Scheinberg | (参考訳) 最適化は機械学習と信号処理の中心にある。
確率勾配法に基づく現代的アプローチは、それぞれのアプリケーションに調整が必要な所定のパラメータ値を採用するという意味では適応的ではない。
本稿では, 大規模システムの学習において, 計算量を大幅に削減する可能性を持つ適応確率最適化法に関する最近の研究を要約し, 今後の研究を動機づける。 Optimization lies at the heart of machine learning and signal processing. Contemporary approaches based on the stochastic gradient method are non-adaptive in the sense that their implementation employs prescribed parameter values that need to be tuned for each application. This article summarizes recent research and motivates future work on adaptive stochastic optimization methods, which have the potential to offer significant computational savings when training large-scale systems. | 翻訳日:2023-01-10 05:01:30 公開日:2020-01-18 |
# テキストにおける複数スタイル属性の公平転送 Fair Transfer of Multiple Style Attributes in Text ( http://arxiv.org/abs/2001.06693v1 ) ライセンス: Link先を確認 | Karan Dabas, Nishtha Madan, Vijay Arya, Sameep Mehta, Gautam Singh, Tanmoy Chakraborty | (参考訳) 匿名性を保ち、オンラインプラットフォーム上で自身のアイデンティティを難読化するために、ユーザーは自分のテキストを変形させ、異なる性別や人口層として表現することができる。
同様に、チャットボットは、オーディエンスとのエンゲージメントを改善するために、コミュニケーションスタイルをカスタマイズする必要がある。
近年ではこの書体の変化が注目されている。
しかし、これらの過去の研究は、主に単一のスタイル属性の転送に役立っている。
単一のスタイルだけに焦点を当てることの欠点は、他の既存のスタイル属性が予測不能に振る舞う、あるいは新しいスタイルによって不公平に支配されるターゲットテキストになることが多いことである。
この動作に逆らうには、複数のスタイルを同時に、かつ公平に転送または制御できるスタイル転送メカニズムを持つのがよいでしょう。
このようなアプローチにより、女性の質、礼儀正しさ、形式性など、複数のソフトスタイルが所望の程度に組み込まれた難解なテキストや文章を得ることができた。
本研究では,複数スタイルの転送を連続的に行うことで,複数のスタイルの転送が達成できないことを示す。
これは、各スタイル転送ステップが、以前の転送ステップによって組み込まれたスタイルを逆転または支配することが多いためである。
次に,与えられたテキスト中の複数のスタイル属性を公平に転送するためのニューラルネットワークアーキテクチャを提案する。
Yelpデータセット上でアーキテクチャをテストし、シーケンスで実行される既存のワンスタイル転送ステップと比較して、優れたパフォーマンスを示す。 To preserve anonymity and obfuscate their identity on online platforms users may morph their text and portray themselves as a different gender or demographic. Similarly, a chatbot may need to customize its communication style to improve engagement with its audience. This manner of changing the style of written text has gained significant attention in recent years. Yet these past research works largely cater to the transfer of single style attributes. The disadvantage of focusing on a single style alone is that this often results in target text where other existing style attributes behave unpredictably or are unfairly dominated by the new style. To counteract this behavior, it would be nice to have a style transfer mechanism that can transfer or control multiple styles simultaneously and fairly. Through such an approach, one could obtain obfuscated or written text incorporated with a desired degree of multiple soft styles such as female-quality, politeness, or formalness. In this work, we demonstrate that the transfer of multiple styles cannot be achieved by sequentially performing multiple single-style transfers. This is because each single style-transfer step often reverses or dominates over the style incorporated by a previous transfer step. We then propose a neural network architecture for fairly transferring multiple style attributes in a given text. We test our architecture on the Yelp data set to demonstrate our superior performance as compared to existing one-style transfer steps performed in a sequence. | 翻訳日:2023-01-10 04:56:05 公開日:2020-01-18 |
# アナロジーを学習する:コネクショニストによる探索 Learning to See Analogies: A Connectionist Exploration ( http://arxiv.org/abs/2001.06668v1 ) ライセンス: Link先を確認 | Douglas S. Blank | (参考訳) この論文はAnalogatorと呼ばれるコンピュータプログラムの開発を通じて学習と類推の統合を探求し、例によって類推を学習する。
多くの異なるアナロジー問題と可能な解を"見る"ことで、アナロジーは徐々に新しいアナロジーを作る能力を発達させていく。
つまり、アナロジーによってアナロジーを作ることを学ぶ。
このアプローチは、モデル内の類推機構の先駆的存在を仮定する、ほとんどの既存のアナログ生成の研究とは対照的である。
本研究は,リカレントネットワークアーキテクチャのための専門的な連想訓練手順の開発により,標準接続主義方法論を拡張したものである。
ネットワークは入力シーン(または状況)を適切な図形と接地コンポーネントに分割するように訓練される。
特定の図形と地上であるシーンを見ることは、類似した方法で別のシーンを見るためのコンテキストを提供する。
トレーニングの後、モデルは新しい状況間で新しいアナログを作ることができる。
アナロゲータは、分類と認識の低レベルの知覚モデルとよく似ているため、高レベルのアナログ学習と低レベルの知覚の両方を含む統一フレームワークとして機能する。
このアプローチは、アナログ生成の他の計算モデルと比較され、対比される。
モデルのトレーニングと一般化のパフォーマンスについて検討し,限界について考察する。 This dissertation explores the integration of learning and analogy-making through the development of a computer program, called Analogator, that learns to make analogies by example. By "seeing" many different analogy problems, along with possible solutions, Analogator gradually develops an ability to make new analogies. That is, it learns to make analogies by analogy. This approach stands in contrast to most existing research on analogy-making, in which typically the a priori existence of analogical mechanisms within a model is assumed. The present research extends standard connectionist methodologies by developing a specialized associative training procedure for a recurrent network architecture. The network is trained to divide input scenes (or situations) into appropriate figure and ground components. Seeing one scene in terms of a particular figure and ground provides the context for seeing another in an analogous fashion. After training, the model is able to make new analogies between novel situations. Analogator has much in common with lower-level perceptual models of categorization and recognition; it thus serves as a unifying framework encompassing both high-level analogical learning and low-level perception. This approach is compared and contrasted with other computational models of analogy-making. The model's training and generalization performance is examined, and limitations are discussed. | 翻訳日:2023-01-10 04:55:43 公開日:2020-01-18 |
# 動的アスペクトレベル説明を用いた勧告用ハイブリッドディープ埋め込み Hybrid Deep Embedding for Recommendations with Dynamic Aspect-Level Explanations ( http://arxiv.org/abs/2001.10341v1 ) ライセンス: Link先を確認 | Huanrui Luo, Ning Yang, Philip S. Yu | (参考訳) 説明可能な推奨事項は、部分的には3つの課題のために解決されていない。
ひとつは、好み学習のパーソナライズであり、異なるアイテム/ユーザが、ユーザの好みや項目の品質の学習に異なる貢献をする必要がある。
2つ目は動的説明であり、これはレコメンデーション説明のタイムラインに不可欠である。
最後の1つは説明の粒度です。
実際には、アスペクトレベルの説明はアイテムレベルやユーザレベルの説明よりも説得力がある。
本稿では,これらの課題を同時に解決するために,アスペクトベースで説明可能なレコメンデーションのためのhybrid deep embedded(hde)と呼ばれる新しいモデルを提案する。
HDEの主な考え方は、評価予測のためのユーザや項目の動的埋め込みとアスペクトレベルの説明を生成するための動的潜在アスペクトの嗜好/品質ベクトルを、レビューから抽出された動的暗黙のフィードバックと注意深いユーザとイテムの相互作用を融合させることである。
特に、ユーザ/項目のアスペクト選好/品質が自動的に学習されるため、hdeはユーザやアイテムのレビューで言及されていないアスペクトの影響を捉えることができる。
実データセットで行った広範囲な実験は、hdeの推奨性能と説明可能性を検証する。
私たちの仕事のソースコードは \url{https://github.com/lola63/hde-python} で入手できる。 Explainable recommendation is far from being well solved partly due to three challenges. The first is the personalization of preference learning, which requires that different items/users have different contributions to the learning of user preference or item quality. The second one is dynamic explanation, which is crucial for the timeliness of recommendation explanations. The last one is the granularity of explanations. In practice, aspect-level explanations are more persuasive than item-level or user-level ones. In this paper, to address these challenges simultaneously, we propose a novel model called Hybrid Deep Embedding (HDE) for aspect-based explainable recommendations, which can make recommendations with dynamic aspect-level explanations. The main idea of HDE is to learn the dynamic embeddings of users and items for rating prediction and the dynamic latent aspect preference/quality vectors for the generation of aspect-level explanations, through fusion of the dynamic implicit feedbacks extracted from reviews and the attentive user-item interactions. Particularly, as the aspect preference/quality of users/items is learned automatically, HDE is able to capture the impact of aspects that are not mentioned in reviews of a user or an item. The extensive experiments conducted on real datasets verify the recommending performance and explainability of HDE. The source code of our work is available at \url{https://github.com/lola63/HDE-Python} | 翻訳日:2023-01-10 04:55:21 公開日:2020-01-18 |
# ゼロショットスケッチに基づく画像検索のためのスタック型逆ネットワーク Stacked Adversarial Network for Zero-Shot Sketch based Image Retrieval ( http://arxiv.org/abs/2001.06657v1 ) ライセンス: Link先を確認 | Anubha Pandey, Ashish Mishra, Vinay Kumar Verma, Anurag Mittal and Hema A. Murthy | (参考訳) 従来のSketch-Based Image Retrieval (SBIR) のアプローチでは、トレーニング中にすべてのクラスのデータが利用できる。
いくつかのクラスのデータが利用できない場合や、トレーニング時にクラスが現れない場合など、前提は常に実用的であるとは限らない。
Zero-Shot Sketch-Based Image Retrieval (ZS-SBIR)は、この制約を緩和し、テスト中に未確認のクラスを処理可能にする。
本稿では、SAN(Stacked Adversarial Network)に基づく生成手法と、ZS-SBIRにおけるSiamese Network(SN)の利点を提案する。
SANは高品質なサンプルを生成するが、SNは近隣の探索よりも距離の精度がよい。
スケッチに基づく画像特徴を合成する生成モデルの能力は,画像から画像への検索問題に対してsbir問題を低減させる。
TU-BerlinおよびSketchyデータベースに対する提案手法の有効性を,標準ZSLおよび一般化ZSL設定の両方で評価した。
提案手法は、標準ZSLの大幅な改善と、SBIRのためのより挑戦的な一般化ZSL設定(GZSL)を実現する。 Conventional approaches to Sketch-Based Image Retrieval (SBIR) assume that the data of all the classes are available during training. The assumption may not always be practical since the data of a few classes may be unavailable, or the classes may not appear at the time of training. Zero-Shot Sketch-Based Image Retrieval (ZS-SBIR) relaxes this constraint and allows the algorithm to handle previously unseen classes during the test. This paper proposes a generative approach based on the Stacked Adversarial Network (SAN) and the advantage of Siamese Network (SN) for ZS-SBIR. While SAN generates a high-quality sample, SN learns a better distance metric compared to that of the nearest neighbor search. The capability of the generative model to synthesize image features based on the sketch reduces the SBIR problem to that of an image-to-image retrieval problem. We evaluate the efficacy of our proposed approach on TU-Berlin, and Sketchy database in both standard ZSL and generalized ZSL setting. The proposed method yields a significant improvement in standard ZSL as well as in a more challenging generalized ZSL setting (GZSL) for SBIR. | 翻訳日:2023-01-10 04:54:33 公開日:2020-01-18 |
# Pairwise Constraintによる半スーパービジョンクラスタリングの分類に基づくアプローチ A Classification-Based Approach to Semi-Supervised Clustering with Pairwise Constraints ( http://arxiv.org/abs/2001.06720v1 ) ライセンス: Link先を確認 | Marek \'Smieja, {\L}ukasz Struski, M\'ario A. T. Figueiredo | (参考訳) 本稿では,半教師付きクラスタリング(SSC)のためのニューラルネットワークフレームワークを提案する。
既存のアプローチとは対照的に、sscを2つのより単純な分類タスク/ステージに分解する: 第一段階は一対のシアムニューラルネットワークを使用して、ラベルのない点のペアを必須リンクまたは不可能リンクとしてラベル付けする;第二段階は教師付きニューラルネットワークベースのクラスタリングで第一段階によって生成された完全なペアワイズラベルデータセットを使用する。
提案手法である s3c2 (semi-supervised siamese classifiers for clustering) は,バイナリ分類(ペアワイズ関係の割り当てなど)が,部分的監督によるマルチクラスクラスタリングよりも容易である点が動機である。
一方, 分類に基づく手法では, クラスタリングタスクを適切に定義せず, 適切に定義された分類問題のみを解決する。
各種データセットに関する広範囲な実験により,提案手法の高性能化が示された。 In this paper, we introduce a neural network framework for semi-supervised clustering (SSC) with pairwise (must-link or cannot-link) constraints. In contrast to existing approaches, we decompose SSC into two simpler classification tasks/stages: the first stage uses a pair of Siamese neural networks to label the unlabeled pairs of points as must-link or cannot-link; the second stage uses the fully pairwise-labeled dataset produced by the first stage in a supervised neural-network-based clustering method. The proposed approach, S3C2 (Semi-Supervised Siamese Classifiers for Clustering), is motivated by the observation that binary classification (such as assigning pairwise relations) is usually easier than multi-class clustering with partial supervision. On the other hand, being classification-based, our method solves only well-defined classification problems, rather than less well specified clustering tasks. Extensive experiments on various datasets demonstrate the high performance of the proposed method. | 翻訳日:2023-01-10 04:53:13 公開日:2020-01-18 |