このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200830となっている論文です。

PDF登録状況(公開日: 20200830)

TitleAuthorsAbstract論文公表日・翻訳日
# SearchFromFree: 機械学習によるエネルギー盗難検出のための逆計測

SearchFromFree: Adversarial Measurements for Machine Learning-based Energy Theft Detection ( http://arxiv.org/abs/2006.03504v2 )

ライセンス: Link先を確認
Jiangnan Li, Yingyuan Yang, Jinyuan Stella Sun(参考訳) エネルギー盗難は世界中の電力会社に大きな経済的損失をもたらす。 近年,機械学習(ML)技術に基づくエネルギー盗難検出アプローチ,特にニューラルネットワークが研究文献で普及し,最先端の検知性能を実現している。 しかし,本稿では,エネルギー盗難検出のための優れたMLモデルが敵攻撃に対して極めて脆弱であることを示す。 特に,攻撃者がMLエネルギ盗難検出を回避しながら,極めて低消費電力の計測をユーティリティに報告できる逆測度生成アルゴリズムを設計する。 本手法は,実世界のスマートメータデータセットに基づく3種類のニューラルネットワークを用いて評価する。 評価結果は,ブラックボックス攻撃者であっても,MLモデルの検出精度を大幅に低下させることができることを示す。

Energy theft causes large economic losses to utility companies around the world. In recent years, energy theft detection approaches based on machine learning (ML) techniques, especially neural networks, become popular in the research literature and achieve state-of-the-art detection performance. However, in this work, we demonstrate that the well-perform ML models for energy theft detection are highly vulnerable to adversarial attacks. In particular, we design an adversarial measurement generation algorithm that enables the attacker to report extremely low power consumption measurements to the utilities while bypassing the ML energy theft detection. We evaluate our approach with three kinds of neural networks based on a real-world smart meter dataset. The evaluation result demonstrates that our approach can significantly decrease the ML models' detection accuracy, even for black-box attackers.
翻訳日:2022-11-26 00:11:52 公開日:2020-08-30
# mm波インテリジェント反射面の深部除音ニューラルネットワークによる圧縮チャネル推定

Deep Denoising Neural Network Assisted Compressive Channel Estimation for mmWave Intelligent Reflecting Surfaces ( http://arxiv.org/abs/2006.02201v2 )

ライセンス: Link先を確認
Shicong Liu, Zhen Gao, Jun Zhang, Marco Di Renzo, Mohamed-Slim Alouini(参考訳) 大規模インテリジェント反射面(IRS)をミリ波(mmWave)大規模マルチインプット・マルチ・ウプット(MIMO)に統合することは、カバレッジとスループットを向上させる上で有望なアプローチである。 既存の作業の多くは、高次元のMIMOチャネルと受動的反射素子のために、理想的なチャネル推定を前提としている。 そこで本稿では, トレーニングオーバーヘッドを低減するために, mmWave IRSシステムに対するディープデノイングニューラルネットワークによる圧縮チャネル推定を提案する。 具体的には、まずハイブリッド受動/アクティブIRSアーキテクチャを導入し、アップリンクのユーザ-IRSチャネルを推定するために受信チェーンをほとんど使用しない。 チャネル訓練段階では、部分的なチャネルを鳴らすために、少数の要素のみが順次活性化される。 さらに、圧縮センシングに基づく限られた測定値から完全チャネル行列を再構成することができ、異なるサブキャリア間の角度領域mmWave MIMOチャネルの共通間隔を利用して精度を向上させる。 さらに,複雑な値を持つ畳み込み畳み込みニューラルネットワーク (CV-DnCNN) も提案されている。 シミュレーションの結果,提案手法が最先端解よりも優れていることを示す。

Integrating large intelligent reflecting surfaces (IRS) into millimeter-wave (mmWave) massive multi-input-multi-ouput (MIMO) has been a promising approach for improved coverage and throughput. Most existing work assumes the ideal channel estimation, which can be challenging due to the high-dimensional cascaded MIMO channels and passive reflecting elements. Therefore, this paper proposes a deep denoising neural network assisted compressive channel estimation for mmWave IRS systems to reduce the training overhead. Specifically, we first introduce a hybrid passive/active IRS architecture, where very few receive chains are employed to estimate the uplink user-to-IRS channels. At the channel training stage, only a small proportion of elements will be successively activated to sound the partial channels. Moreover, the complete channel matrix can be reconstructed from the limited measurements based on compressive sensing, whereby the common sparsity of angular domain mmWave MIMO channels among different subcarriers is leveraged for improved accuracy. Besides, a complex-valued denoising convolution neural network (CV-DnCNN) is further proposed for enhanced performance. Simulation results demonstrate the superiority of the proposed solution over state-of-the-art solutions.
翻訳日:2022-11-25 18:49:23 公開日:2020-08-30
# 共役行列アンサンブルによるディープニューラルネットワークの等価性

Equivalence in Deep Neural Networks via Conjugate Matrix Ensembles ( http://arxiv.org/abs/2006.13687v2 )

ライセンス: Link先を確認
Mehmet S\"uzen(参考訳) ディープラーニングアーキテクチャの等価性を検出するための数値解析手法を開発した。 この方法は、ディープニューラルネットワークの重量行列からミックスマトリックスアンサンブル(MME)を生成することと、ニューラルネットワークトポロジに一致する共役円形アンサンブルを生成することに基づいている。 これに続いて、実験的な証拠は、ニューラルネットワークのスペクトル密度と対応するit共役円形アンサンブルとの差がスペクトルの長い正の尾部、すなわち累積円スペクトル差(csd)で異なる減衰率で消滅する、という「it現象」を裏付けている。 この発見は、CDDのゆらぎの分析を通じて、異なるニューラルネットワークアーキテクチャ間の等価性を確立するのに利用できる。 我々は、この現象を、幅広い深層学習視覚アーキテクチャと、統計量子力学から派生した円形アンサンブルを用いて研究した。 提案手法の実践的意味は,ニューラルネットワーク探索(NAS)におけるアプローチの適用可能性や生物学的ニューラルネットワークの分類などである。

A numerical approach is developed for detecting the equivalence of deep learning architectures. The method is based on generating Mixed Matrix Ensembles (MMEs) out of deep neural network weight matrices and {\it conjugate circular ensemble} matching the neural architecture topology. Following this, the empirical evidence supports the {\it phenomenon} that difference between spectral densities of neural architectures and corresponding {\it conjugate circular ensemble} are vanishing with different decay rates at the long positive tail part of the spectrum i.e., cumulative Circular Spectral Difference (CSD). This finding can be used in establishing equivalences among different neural architectures via analysis of fluctuations in CSD. We investigated this phenomenon for a wide range of deep learning vision architectures and with circular ensembles originating from statistical quantum mechanics. Practical implications of the proposed method for artificial and natural neural architectures discussed such as the possibility of using the approach in Neural Architecture Search (NAS) and classification of biological neural networks.
翻訳日:2022-11-21 12:48:08 公開日:2020-08-30
# オンライン非線形Neyman-Pearson分類のためのニューラルネットワークアプローチ

A Neural Network Approach for Online Nonlinear Neyman-Pearson Classification ( http://arxiv.org/abs/2006.08001v2 )

ライセンス: Link先を確認
Basarbatu Can, Huseyin Ozkan(参考訳) 論文の中では,オンラインと非線形の両方で初となる新しいNeyman-Pearson(NP)分類器を提案する。 提案する分類器は、オンライン形式でバイナリラベル付きデータストリーム上で動作し、ユーザ特定かつ制御可能な偽陽性率の検出能力を最大化する。 我々のNP分類器は単一の隠れ層フィードフォワードニューラルネットワーク(SLFN)であり、これはランダムフーリエ特徴(RFF)で初期化され、正弦波活性化を伴う隠れ層における放射基底関数のカーネル空間を構築する。 このrffの使用は、優れた非線形モデリング能力を持つ優れた初期化を提供するだけでなく、パラメータの複雑さを指数関数的に減少させ、ネットワークをコンパクト化し、処理効率を大幅に向上させる。 ラグランジアンNPの目的に基づいて,確率勾配降下更新を用いてSLFNを逐次学習する。 その結果、高速なオンライン適応と強力な非線形Neyman-Pearsonモデリングが得られる。 本アルゴリズムは大規模データ応用に適しており,o(n)計算量とo(1)空間複雑性(n:データインスタンス数)しか持たないため,リアルタイム処理による適正な偽陽性率制御性を提供する。 いくつかの実データ集合に関する広範な実験では、np分類の目的と同等の計算量と空間の複雑さ、あるいはより低い複雑性で同等のパフォーマンスを達成することによって、アルゴリズムは競合する最先端技術よりも優れている。

We propose a novel Neyman-Pearson (NP) classifier that is both online and nonlinear as the first time in the literature. The proposed classifier operates on a binary labeled data stream in an online manner, and maximizes the detection power about a user-specified and controllable false positive rate. Our NP classifier is a single hidden layer feedforward neural network (SLFN), which is initialized with random Fourier features (RFFs) to construct the kernel space of the radial basis function at its hidden layer with sinusoidal activation. Not only does this use of RFFs provide an excellent initialization with great nonlinear modeling capability, but it also exponentially reduces the parameter complexity and compactifies the network to mitigate overfitting while improving the processing efficiency substantially. We sequentially learn the SLFN with stochastic gradient descent updates based on a Lagrangian NP objective. As a result, we obtain an expedited online adaptation and powerful nonlinear Neyman-Pearson modeling. Our algorithm is appropriate for large scale data applications and provides a decent false positive rate controllability with real time processing since it only has O(N) computational and O(1) space complexity (N: number of data instances). In our extensive set of experiments on several real datasets, our algorithm is highly superior over the competing state-of-the-art techniques, either by outperforming in terms of the NP classification objective with a comparable computational as well as space complexity or by achieving a comparable performance with significantly lower complexity.
翻訳日:2022-11-21 10:11:03 公開日:2020-08-30
# セルフアテンション機構に基づく教師なしパンシャープニング

Unsupervised Pansharpening Based on Self-Attention Mechanism ( http://arxiv.org/abs/2006.09303v3 )

ライセンス: Link先を確認
Ying Qu, Razieh Kaviani Baghbaderani, Hairong Qi, Chiman Kwan(参考訳) パンシャーペンは,低空間分解能 (LR) のマルチスペクトル像 (MSI) と高空間分解能 (HR) のパンクロマティック像 (PAN) とを融合させるがスペクトル特性は貧弱である。 従来の方法では通常、PANから抽出した高周波の詳細をアップサンプリングされたMSIに注入する。 近年のディープラーニングの取り組みは、HR MSIが利用可能であると仮定して、主に監督されている。 しかし、これらの手法はMSIのスペクトル特性を十分に活用できなかった。 各画素が複数の構成材料をカバーする傾向にある衛星画像に混合画素が存在するため、サブピクセルレベルでのパンシャーピングが不可欠となる。 本稿では, 自己認識機構(SAM)に基づいて, 深層学習フレームワークにおけるunsupervised pansharpening (UP)法を提案する。 本論文の貢献は3倍である。 まず,msiのスペクトル特性を示す注意表現に基づき,空間的な細部抽出・注入関数をサブピクセル精度で推定するセルフアテンション機構を提案する。 第2に,このような注意表現は,提案するスタック型注意ネットワークを用いた混合画素から導出され,混合画素の物理的制約を満たすためのスティック破断構造を有する。 第3に,注意表現に基づくディテール抽出とインジェクション関数の空間的変化により,復元精度が大幅に向上する。 大規模な実験結果から,提案手法は異なるタイプのシャープなMSIを,より詳細かつスペクトル歪みの少ない方法で再構築可能であることが示された。

Pansharpening is to fuse a multispectral image (MSI) of low-spatial-resolution (LR) but rich spectral characteristics with a panchromatic image (PAN) of high-spatial-resolution (HR) but poor spectral characteristics. Traditional methods usually inject the extracted high-frequency details from PAN into the up-sampled MSI. Recent deep learning endeavors are mostly supervised assuming the HR MSI is available, which is unrealistic especially for satellite images. Nonetheless, these methods could not fully exploit the rich spectral characteristics in the MSI. Due to the wide existence of mixed pixels in satellite images where each pixel tends to cover more than one constituent material, pansharpening at the subpixel level becomes essential. In this paper, we propose an unsupervised pansharpening (UP) method in a deep-learning framework to address the above challenges based on the self-attention mechanism (SAM), referred to as UP-SAM. The contribution of this paper is three-fold. First, the self-attention mechanism is proposed where the spatial varying detail extraction and injection functions are estimated according to the attention representations indicating spectral characteristics of the MSI with sub-pixel accuracy. Second, such attention representations are derived from mixed pixels with the proposed stacked attention network powered with a stick-breaking structure to meet the physical constraints of mixed pixel formulations. Third, the detail extraction and injection functions are spatial varying based on the attention representations, which largely improves the reconstruction accuracy. Extensive experimental results demonstrate that the proposed approach is able to reconstruct sharper MSI of different types, with more details and less spectral distortion as compared to the state-of-the-art.
翻訳日:2022-11-20 21:33:12 公開日:2020-08-30
# objectnav revisited: オブジェクトにナビゲートする具体化エージェントの評価について

ObjectNav Revisited: On Evaluation of Embodied Agents Navigating to Objects ( http://arxiv.org/abs/2006.13171v2 )

ライセンス: Link先を確認
Dhruv Batra, Aaron Gokaslan, Aniruddha Kembhavi, Oleksandr Maksymets, Roozbeh Mottaghi, Manolis Savva, Alexander Toshev, Erik Wijmans(参考訳) 我々はObject-Goal Navigation(ObjectNav)の問題を再考する。 最も単純な形では、objectnavは、未探索の環境でそのラベルによって指定されたオブジェクトにナビゲートするタスクとして定義される。 特に、エージェントはランダムな場所に初期化され、環境の中でポーズをとり、それにナビゲートすることで、例えば椅子を見つけるなど、オブジェクトのカテゴリのインスタンスを見つけるように要求される。 ナビゲーションタスクのセマンティックゴール仕様に対するコミュニティの関心が高まり始めるにつれ、このタスクの多くの異なる非一貫性な解釈が生まれつつある。 この文書は、このワーキンググループのObjectNavに関するコンセンサス勧告をまとめたものです。 特に,評価基準(対象対象物に対してナビゲートする場合の成功度を測定するため),エージェントの具体化パラメータ,タスクが実行される環境の特性について,微妙だが重要な詳細を推奨する。 最後に、cvpr 2020 http://embodied-ai.org.com/embodied ai workshopで組織された課題における、これらの推奨のインスタンス化に関する詳細な説明を提供する。

We revisit the problem of Object-Goal Navigation (ObjectNav). In its simplest form, ObjectNav is defined as the task of navigating to an object, specified by its label, in an unexplored environment. In particular, the agent is initialized at a random location and pose in an environment and asked to find an instance of an object category, e.g., find a chair, by navigating to it. As the community begins to show increased interest in semantic goal specification for navigation tasks, a number of different often-inconsistent interpretations of this task are emerging. This document summarizes the consensus recommendations of this working group on ObjectNav. In particular, we make recommendations on subtle but important details of evaluation criteria (for measuring success when navigating towards a target object), the agent's embodiment parameters, and the characteristics of the environments within which the task is carried out. Finally, we provide a detailed description of the instantiation of these recommendations in challenges organized at the Embodied AI workshop at CVPR 2020 http://embodied-ai.org .
翻訳日:2022-11-17 23:46:21 公開日:2020-08-30
# 深部動的テクスチャ学習による大規模多相ctデータからの肝病変の抽出・検出・特徴付け

Harvesting, Detecting, and Characterizing Liver Lesions from Large-scale Multi-phase CT Data via Deep Dynamic Texture Learning ( http://arxiv.org/abs/2006.15691v2 )

ライセンス: Link先を確認
Yuankai Huo, Jinzheng Cai, Chi-Tung Cheng, Ashwin Raju, Ke Yan, Bennett A. Landman, Jing Xiao, Le Lu, Chien-Hung Liao, Adam P. Harrison(参考訳) 非侵襲的な放射線学的病変の特徴と同定、例えば癌サブタイプを識別することは、長い間、腫瘍診断と治療の手順を強化する主要な目的であった。 本研究は, 肝癌患者に対する外科的生検の必要性を軽減し, 有害な副作用を多く生ずることを期待して, 特定の個体群について検討する。 そこで本稿では,ダイナミックコントラストct(dynamic contrast ct)のための完全自動多段階肝腫瘍キャラクタリゼーションフレームワークを提案する。 本システムは, 腫瘍プロジェクション検出, 腫瘍採取, 一次腫瘍部位選択, 深部テクスチャに基づく腫瘍キャラクタリゼーションの4段階からなる。 我々は,(1)肝病変の3次元非等方性アンカー無検出法,(2)肝病変のより正確な特徴付けを可能にする空間適応深部テクスチャ(sadt)学習,(3)半自動的プロセスを用いて,200種類の金標準アノテーションをブートストラップして,他の1001例を治療する。 実験により,本手法とSaDT深部動的テクスチャ解析の併用により,4種類の肝病変の鑑別において,ベースラインと比較してF1スコアが8.6%向上することが確認された。 我々のF1スコア(肝細胞癌と残存サブクラス)は0.763であり、ダイナミックCTを用いて報告されたヒトの観察成績よりも高く、高度な磁気共鳴画像プロトコルに匹敵する。 データキュレーションアプローチと医師にインスパイアされたワークフローの利点を示すだけでなく、これらの結果は、標準的なオブジェクトベースの分析ではなく、テクスチャの特徴を分析することが、病変の分化にとって有望な戦略であることを示している。

Non-invasive radiological-based lesion characterization and identification, e.g., to differentiate cancer subtypes, has long been a major aim to enhance oncological diagnosis and treatment procedures. Here we study a specific population of human subjects, with the hope of reducing the need for invasive surgical biopsies of liver cancer patients, which can cause many harmful side-effects. To this end, we propose a fully-automated and multi-stage liver tumor characterization framework designed for dynamic contrast computed tomography (CT). Our system comprises four sequential processes of tumor proposal detection, tumor harvesting, primary tumor site selection, and deep texture-based tumor characterization. Our main contributions are that, (1) we propose a 3D non-isotropic anchor-free detection method for liver lesions; (2) we present and validate spatially adaptivedeep texture (SaDT) learning, which allows for more precise characterization of liver lesions; (3) using a semi-automatic process, we bootstrap off of 200 gold standard annotations to curate another 1001 patients. Experimental evaluations demonstrate that our new data curation strategy, combined with the SaDT deep dynamic texture analysis, can effectively improve the mean F1 scores by >8.6% compared with baselines, in differentiating four major liver lesion types. Our F1 score of (hepatocellular carcinoma versus remaining subclasses) is 0.763, which is higher than reported human observer performance using dynamic CT and comparable to an advanced magnetic resonance imagery protocol. Apart from demonstrating the benefits of our data curation approach and physician-inspired workflow, these results also indicate that analyzing texture features, instead of standard object-based analysis, is a promising strategy for lesion differentiation.
翻訳日:2022-11-16 02:50:36 公開日:2020-08-30
# 連続インデックス付きドメイン適応

Continuously Indexed Domain Adaptation ( http://arxiv.org/abs/2007.01807v2 )

ライセンス: Link先を確認
Hao Wang and Hao He and Dina Katabi(参考訳) 既存のドメイン適応は、カテゴリのインデックス(例えば、データセットaとbの間)を持つドメイン間の知識の転送に焦点を当てている。 しかし、多くのタスクは連続的なインデックス付きドメインを含む。 例えば、医学的応用においては、年齢が連続的なドメインインデックスとして機能する異なる年齢の患者に病気の分析と予測を伝達する必要があることが多い。 このようなタスクは、ドメイン間の基盤となる関係を無視しているため、事前のドメイン適応手法では困難である。 本稿では,連続インデックス付きドメイン適応の最初の手法を提案する。 本手法は,従来の逆適応法と,エンコーディング条件付きドメインインデックス分布をモデル化する新しい判別器を組み合わせたものである。 我々の理論的分析は、連続する領域の範囲で不変な特徴を生成するためにドメインインデックスを利用する価値を示す。 実験の結果,本手法は人工的および実世界の医療データセットにおいて,最先端の領域適応法よりも優れていることがわかった。

Existing domain adaptation focuses on transferring knowledge between domains with categorical indices (e.g., between datasets A and B). However, many tasks involve continuously indexed domains. For example, in medical applications, one often needs to transfer disease analysis and prediction across patients of different ages, where age acts as a continuous domain index. Such tasks are challenging for prior domain adaptation methods since they ignore the underlying relation among domains. In this paper, we propose the first method for continuously indexed domain adaptation. Our approach combines traditional adversarial adaptation with a novel discriminator that models the encoding-conditioned domain index distribution. Our theoretical analysis demonstrates the value of leveraging the domain index to generate invariant features across a continuous range of domains. Our empirical results show that our approach outperforms the state-of-the-art domain adaption methods on both synthetic and real-world medical datasets.
翻訳日:2022-11-14 04:18:58 公開日:2020-08-30
# 信頼できるAIを評価するためのソフトウェアエンジニアリングツールボックスの開設

Opening the Software Engineering Toolbox for the Assessment of Trustworthy AI ( http://arxiv.org/abs/2007.07768v2 )

ライセンス: Link先を確認
Mohit Kumar Ahuja, Mohamed-Bachir Belaid, Pierre Bernab\'e, Mathieu Collet, Arnaud Gotlieb, Chhagan Lal, Dusica Marijan, Sagar Sen, Aizaz Sharif, Helge Spieker(参考訳) 信頼性は、人間中心人工知能(AI)の受容と成功のための中心的な要件である。 AIシステムを信頼できるものとみなすためには、その行動と特性を、ガイドライン、要件、あるいは期待のみで構成される信頼できるAIのゴールド標準に対して評価することが不可欠である。 AIシステムは極めて複雑だが、その実装はまだソフトウェアに基づいている。 ソフトウェアエンジニアリングコミュニティには、ソフトウェアシステム、特にソフトウェアテストのコンテキストを評価するための、長い間確立されたツールボックスがある。 本稿では,信頼性の高いAI評価のためのソフトウェア工学とテストプラクティスの適用について論じる。 欧州委員会AIのハイレベル専門家グループによって定義された7つの重要な要件の関連付けを行い、ソフトウェアエンジニアリングの手順を確立し、今後の作業に関する疑問を提起します。

Trustworthiness is a central requirement for the acceptance and success of human-centered artificial intelligence (AI). To deem an AI system as trustworthy, it is crucial to assess its behaviour and characteristics against a gold standard of Trustworthy AI, consisting of guidelines, requirements, or only expectations. While AI systems are highly complex, their implementations are still based on software. The software engineering community has a long-established toolbox for the assessment of software systems, especially in the context of software testing. In this paper, we argue for the application of software engineering and testing practices for the assessment of trustworthy AI. We make the connection between the seven key requirements as defined by the European Commission's AI high-level expert group and established procedures from software engineering and raise questions for future work.
翻訳日:2022-11-10 15:27:13 公開日:2020-08-30
# 非線形マルチグリッドによる深層残留ニューラルネットワークのgpu並列処理による層並列トレーニング

Layer-Parallel Training with GPU Concurrency of Deep Residual Neural Networks via Nonlinear Multigrid ( http://arxiv.org/abs/2007.07336v2 )

ライセンス: Link先を確認
Andrew C. Kirby, Siddharth Samsi, Michael Jones, Albert Reuther, Jeremy Kepner, Vijay Gadepally(参考訳) gpu上でのニューラルネットワークの並列化層間トレーニングと並列計算カーネル実行を可能にするために,ディープ残差ネットワークを解決するためのマルチグリッドフル近似ストレージアルゴリズムを開発した。 この研究は、同じ数の計算単位を使用する従来のレイヤーワイズモデル並列処理技術に対する10.2倍のスピードアップを示している。

A Multigrid Full Approximation Storage algorithm for solving Deep Residual Networks is developed to enable neural network parallelized layer-wise training and concurrent computational kernel execution on GPUs. This work demonstrates a 10.2x speedup over traditional layer-wise model parallelism techniques using the same number of compute units.
翻訳日:2022-11-10 14:25:45 公開日:2020-08-30
# tenet:ビデオサリエント物体検出のための三重励起ネットワーク

TENet: Triple Excitation Network for Video Salient Object Detection ( http://arxiv.org/abs/2007.09943v2 )

ライセンス: Link先を確認
Sucheng Ren and Chu Han and Xin Yang and Guoqiang Han and Shengfeng He(参考訳) 本稿では,3つの側面,空間的,時間的,オンラインの励起からビデオサルエント物体検出(VSOD)のトレーニングを強化するための,トリプル励起ネットワーク(Triple Excitation Network)を提案する。 これらの励磁機構はカリキュラム学習の精神に則って設計され、基礎的真理を用いた選択的に刺激的な特徴アクティベーションによって訓練開始時の学習のあいまいさを低減することを目的としている。 次に, 基礎的真理励振の重みをカリキュラム率で徐々に削減し, より良く高速な収束のためのカリキュラム補完マップに置き換える。 特に、空間的励起はクリアな物体の境界に対する特徴活性化を強化し、時間的励起は時空間正弦領域を強調する動きを強制する。 空間的および時間的興奮は、VSODの空間的特徴と時間的特徴の間の相違と相反する。 さらに,この半カリキュラム学習設計により,VSODのオンライン改善戦略を初めて実現し,テスト中のサリエンシ応答のエキサイティングと促進を,再トレーニングなしで実現する。 提案した三重励起は、異なるVSODメソッドを簡単にプラグインできる。 広範にわたる実験により,3つの励磁法および提案手法が最先端画像および映像サリエント物体検出法を上回った。

In this paper, we propose a simple yet effective approach, named Triple Excitation Network, to reinforce the training of video salient object detection (VSOD) from three aspects, spatial, temporal, and online excitations. These excitation mechanisms are designed following the spirit of curriculum learning and aim to reduce learning ambiguities at the beginning of training by selectively exciting feature activations using ground truth. Then we gradually reduce the weight of ground truth excitations by a curriculum rate and replace it by a curriculum complementary map for better and faster convergence. In particular, the spatial excitation strengthens feature activations for clear object boundaries, while the temporal excitation imposes motions to emphasize spatio-temporal salient regions. Spatial and temporal excitations can combat the saliency shifting problem and conflict between spatial and temporal features of VSOD. Furthermore, our semi-curriculum learning design enables the first online refinement strategy for VSOD, which allows exciting and boosting saliency responses during testing without re-training. The proposed triple excitations can easily plug in different VSOD methods. Extensive experiments show the effectiveness of all three excitation methods and the proposed method outperforms state-of-the-art image and video salient object detection methods.
翻訳日:2022-11-08 13:48:08 公開日:2020-08-30
# SymmetryNet:シングルビューRGB-D画像から3次元形状の反射・回転対称性を予測する学習

SymmetryNet: Learning to Predict Reflectional and Rotational Symmetries of 3D Shapes from Single-View RGB-D Images ( http://arxiv.org/abs/2008.00485v3 )

ライセンス: Link先を確認
Yifei Shi, Junwen Huang, Hongjia Zhang, Xin Xu, Szymon Rusinkiewicz, Kai Xu(参考訳) 本研究では,一視点rgb-d画像からの3次元形状の対称性検出の問題点について検討する。 入力RGB-D画像に存在する3次元物体の反射対称性と回転対称性の両方を予測できるエンドツーエンドのディープニューラルネットワークを提案する。 しかし、対称性予測のための深層モデルを直接トレーニングすることで、オーバーフィッティングの問題に素早く突き当たることができる。 マルチタスク学習アプローチを採用しています。 対称性軸の予測は別として、ネットワークは対称性の対応を予測するように訓練されている。 特に、RGB-D画像に存在する3Dポイントを考慮すれば、ネットワークは特定の予測対称性に対応する対称な3Dポイントごとに出力する。 さらに,ネットワークは,所定の形状の異なる複数の対称性を検出することができる。 単視点RGB-D画像に基づく3次元対称性検出のベンチマークにも貢献する。 評価の結果,本手法の強い一般化能力は,対称性軸の予測とそれに対応する推定の精度の両面から評価できることがわかった。 特に, 形状のばらつき, 複数対称性の合成, 新規なオブジェクトカテゴリを持つ未知のオブジェクトインスタンスの処理にはロバストである。

We study the problem of symmetry detection of 3D shapes from single-view RGB-D images, where severely missing data renders geometric detection approach infeasible. We propose an end-to-end deep neural network which is able to predict both reflectional and rotational symmetries of 3D objects present in the input RGB-D image. Directly training a deep model for symmetry prediction, however, can quickly run into the issue of overfitting. We adopt a multi-task learning approach. Aside from symmetry axis prediction, our network is also trained to predict symmetry correspondences. In particular, given the 3D points present in the RGB-D image, our network outputs for each 3D point its symmetric counterpart corresponding to a specific predicted symmetry. In addition, our network is able to detect for a given shape multiple symmetries of different types. We also contribute a benchmark of 3D symmetry detection based on single-view RGB-D images. Extensive evaluation on the benchmark demonstrates the strong generalization ability of our method, in terms of high accuracy of both symmetry axis prediction and counterpart estimation. In particular, our method is robust in handling unseen object instances with large variation in shape, multi-symmetry composition, as well as novel object categories.
翻訳日:2022-11-03 19:57:13 公開日:2020-08-30
# tri-attentional correlation filterを用いた無人航空機のロバスト視覚追跡

Towards Robust Visual Tracking for Unmanned Aerial Vehicle with Tri-Attentional Correlation Filters ( http://arxiv.org/abs/2008.00528v2 )

ライセンス: Link先を確認
Yujie He, Changhong Fu, Fuling Lin, Yiming Li, Peng Lu(参考訳) 近年,無人航空機(UAV)の作業に物体追跡が広く応用されている。 しかし、既存のアルゴリズムは部分閉塞、乱雑な背景、その他の困難な視覚的要因などの困難に直面している。 最先端の注意機構にインスパイアされた新しい物体追跡フレームワークが提案されている。 相関フィルタに基づくトラッキングパイプラインのトレーニングおよび検出段階には,3つの主要な注意,すなわち文脈的注意,次元的注意,時空間的注意が組み込まれている。 したがって,提案トラッカーは,UAVシナリオにおいて高い運用効率を維持しつつ,困難な要因に対して堅牢な識別力を備えている。 173個のUAVビデオシーケンスを用いた2つのよく知られたベンチマークの定量および定性実験により,提案手法の有効性が示された。 提案した追跡アルゴリズムは、12の最先端手法を好適に上回り、UAVDTでは4.8%、UAV123@10fpsでは8.2%、ベースライントラッカーでは28フレーム/秒の速度で動作している。

Object tracking has been broadly applied in unmanned aerial vehicle (UAV) tasks in recent years. However, existing algorithms still face difficulties such as partial occlusion, clutter background, and other challenging visual factors. Inspired by the cutting-edge attention mechanisms, a novel object tracking framework is proposed to leverage multi-level visual attention. Three primary attention, i.e., contextual attention, dimensional attention, and spatiotemporal attention, are integrated into the training and detection stages of correlation filter-based tracking pipeline. Therefore, the proposed tracker is equipped with robust discriminative power against challenging factors while maintaining high operational efficiency in UAV scenarios. Quantitative and qualitative experiments on two well-known benchmarks with 173 challenging UAV video sequences demonstrate the effectiveness of the proposed framework. The proposed tracking algorithm favorably outperforms 12 state-of-the-art methods, yielding 4.8% relative gain in UAVDT and 8.2% relative gain in UAV123@10fps against the baseline tracker while operating at the speed of $\sim$ 28 frames per second.
翻訳日:2022-11-03 19:56:33 公開日:2020-08-30
# 知識グラフコンテキストがエンティティの曖昧さモデルに及ぼす影響の評価

Evaluating the Impact of Knowledge Graph Context on Entity Disambiguation Models ( http://arxiv.org/abs/2008.05190v3 )

ライセンス: Link先を確認
Isaiah Onando Mulang', Kuldeep Singh, Chaitali Prabhu, Abhishek Nadgeri, Johannes Hoffart, Jens Lehmann(参考訳) 事前訓練されたトランスフォーマーモデルは、テキストから文脈情報を学習し、いくつかのNLPタスクの性能を改善する最先端のアプローチとして登場した。 これらのモデルは強力ではあるが、特定のシナリオで特別な知識を必要とする。 本稿では、知識グラフ(ウィキデータ)から派生したコンテキストが、事前学習されたトランスフォーマーモデルに十分な信号を提供し、Wikidata KG上の名前付きエンティティ曖昧化(NED)の性能を向上させることを論じる。 さらに,提案したKGコンテキストがWikipediaで標準化可能であることを仮定し,KGコンテキストがWikipedia知識ベースにおける最先端NEDモデルに与える影響を評価する。 実験の結果,提案したKGコンテキストを一般化し(ウィキペディア用),変圧器アーキテクチャにおけるKGコンテキストの提供は,バニラ変圧器モデルを含む既存のベースラインをかなり上回っていることがわかった。

Pretrained Transformer models have emerged as state-of-the-art approaches that learn contextual information from text to improve the performance of several NLP tasks. These models, albeit powerful, still require specialized knowledge in specific scenarios. In this paper, we argue that context derived from a knowledge graph (in our case: Wikidata) provides enough signals to inform pretrained transformer models and improve their performance for named entity disambiguation (NED) on Wikidata KG. We further hypothesize that our proposed KG context can be standardized for Wikipedia, and we evaluate the impact of KG context on state-of-the-art NED model for the Wikipedia knowledge base. Our empirical results validate that the proposed KG context can be generalized (for Wikipedia), and providing KG context in transformer architectures considerably outperforms the existing baselines, including the vanilla transformer models.
翻訳日:2022-10-31 04:37:22 公開日:2020-08-30
# ハイパースペクトル画像分類のための共有空間による物理的制約付き移動学習

Physically-Constrained Transfer Learning through Shared Abundance Space for Hyperspectral Image Classification ( http://arxiv.org/abs/2008.08563v2 )

ライセンス: Link先を確認
Ying Qu, Razieh Kaviani Baghbaderani, Wei Li, Lianru Gao, Hairong Qi(参考訳) ハイパースペクトル画像(HSI)分類は最も活発な研究課題の一つであり,近年の深層学習の発展により,有望な成果を上げている。 しかし、ほとんどの最先端のアプローチは、異なる取得条件によって生じるスペクトル変動のために、トレーニングとテストの画像がそれぞれソースドメインとターゲットドメインの異なる領域にある場合、パフォーマンスが悪くなる傾向にある。 転送学習に基づく手法は、ソースドメインの事前トレーニングとターゲットドメインの微調整によってこの問題に対処する。 それでも、ターゲット領域上のかなりの量のデータをラベル付けし、ネットワーク全体を再トレーニングするためには、無視できない計算資源が必要である。 本稿では,ソース領域とターゲット領域からのhsiデータを,その物理特性に基づいて共有空間に投影することで,ソース領域とターゲット領域のギャップを埋める新しいトランスファー学習手法を提案する。 このようにして、ソースドメインでトレーニングされたモデルを、データラベリングやネットワークリトレーニングの余分な労力なしでターゲットドメインに適用できるように、ドメインの相違は大幅に減少する。 提案手法は共用量空間 (pctl-sas) による物理拘束伝達学習 (physical-constrained transfer learning) と呼ばれる。 実験結果から,提案手法が最先端技術よりも優れていることを示す。 この取り組みの成功は、現実世界のセンシングシナリオに対するhsi分類の導入を大いに促進する。

Hyperspectral image (HSI) classification is one of the most active research topics and has achieved promising results boosted by the recent development of deep learning. However, most state-of-the-art approaches tend to perform poorly when the training and testing images are on different domains, e.g., source domain and target domain, respectively, due to the spectral variability caused by different acquisition conditions. Transfer learning-based methods address this problem by pre-training in the source domain and fine-tuning on the target domain. Nonetheless, a considerable amount of data on the target domain has to be labeled and non-negligible computational resources are required to retrain the whole network. In this paper, we propose a new transfer learning scheme to bridge the gap between the source and target domains by projecting the HSI data from the source and target domains into a shared abundance space based on their own physical characteristics. In this way, the domain discrepancy would be largely reduced such that the model trained on the source domain could be applied on the target domain without extra efforts for data labeling or network retraining. The proposed method is referred to as physically-constrained transfer learning through shared abundance space (PCTL-SAS). Extensive experimental results demonstrate the superiority of the proposed method as compared to the state-of-the-art. The success of this endeavor would largely facilitate the deployment of HSI classification for real-world sensing scenarios.
翻訳日:2022-10-27 12:07:39 公開日:2020-08-30
# ミンコフスキー時空における因果的未来予測

Causal Future Prediction in a Minkowski Space-Time ( http://arxiv.org/abs/2008.09154v2 )

ライセンス: Link先を確認
Athanasios Vlontzos, Henrique Bergallo Rocha, Daniel Rueckert, Bernhard Kainz(参考訳) 将来のイベントの見積もりは難しい作業です。 人間とは異なり、機械学習のアプローチは物理の自然な理解によって正規化されない。 野生では、起こりうる出来事の継承は因果関係の規則によって制御され、有限の訓練集合から容易に導出することはできない。 本稿では,ミンコフスキー時空に時空間情報を埋め込み,因果的未来予測を行うための新しい理論的枠組みを提案する。 我々は、特殊相対性理論から光円錐の概念を利用し、任意のモデルの潜在空間を制限およびトラバースする。 画像のデータセット上で因果画像合成と将来のビデオフレーム予測に成功例を示す。 私たちのフレームワークはアーキテクチャとタスク非依存であり、因果能力に関する強い理論的保証を伴っています。

Estimating future events is a difficult task. Unlike humans, machine learning approaches are not regularized by a natural understanding of physics. In the wild, a plausible succession of events is governed by the rules of causality, which cannot easily be derived from a finite training set. In this paper we propose a novel theoretical framework to perform causal future prediction by embedding spatiotemporal information on a Minkowski space-time. We utilize the concept of a light cone from special relativity to restrict and traverse the latent space of an arbitrary model. We demonstrate successful applications in causal image synthesis and future video frame prediction on a dataset of images. Our framework is architecture- and task-independent and comes with strong theoretical guarantees of causal capabilities.
翻訳日:2022-10-27 02:47:56 公開日:2020-08-30
# ReIDとカメラリンクモデルに基づく車両の交通対応マルチカメラ追跡

Traffic-Aware Multi-Camera Tracking of Vehicles Based on ReID and Camera Link Model ( http://arxiv.org/abs/2008.09785v2 )

ライセンス: Link先を確認
Hung-Min Hsu, Yizhou Wang, Jenq-Neng Hwang(参考訳) マルチターゲットマルチカメラトラッキング(mtmct、multi-target multi-camera tracking)は、スマートシティアプリケーションにとって重要な技術である。 本稿では,tsct(traffic-aware single camera tracking)アルゴリズム,reid(traffic-based camera link model)のためのclm(traffic-based camera link model),およびクロスカメラ車両トラジェクタを得る階層クラスタリングアルゴリズムからなる,車両用有効で信頼性の高いmtmctフレームワークを提案する。 まず、車両の外観、幾何学的特徴、およびいくつかの一般的な交通シナリオを共同で検討するTSCTを提案し、各カメラ内の車両を別々に追跡する。 第二に、軌跡に基づくCLMを採用して、隣接する一対のカメラ間の関係を容易にし、後続の車両ReIDに時間的注意を伴う時空間制約を加える。 第三に、階層的クラスタリングアルゴリズムは、全てのカメラ間の車両軌跡をマージして最終的なTMCT結果を得る。 提案するMTMCTは,CityFlowデータセットを用いて評価し,IDF1の74.93%の新たな最先端性能を実現する。

Multi-target multi-camera tracking (MTMCT), i.e., tracking multiple targets across multiple cameras, is a crucial technique for smart city applications. In this paper, we propose an effective and reliable MTMCT framework for vehicles, which consists of a traffic-aware single camera tracking (TSCT) algorithm, a trajectory-based camera link model (CLM) for vehicle re-identification (ReID), and a hierarchical clustering algorithm to obtain the cross camera vehicle trajectories. First, the TSCT, which jointly considers vehicle appearance, geometric features, and some common traffic scenarios, is proposed to track the vehicles in each camera separately. Second, the trajectory-based CLM is adopted to facilitate the relationship between each pair of adjacently connected cameras and add spatio-temporal constraints for the subsequent vehicle ReID with temporal attention. Third, the hierarchical clustering algorithm is used to merge the vehicle trajectories among all the cameras to obtain the final MTMCT results. Our proposed MTMCT is evaluated on the CityFlow dataset and achieves a new state-of-the-art performance with IDF1 of 74.93%.
翻訳日:2022-10-26 08:04:18 公開日:2020-08-30
# 複数センサデータ融合による車両走行経路予測

Vehicle Route Prediction through Multiple Sensors Data Fusion ( http://arxiv.org/abs/2008.13117v1 )

ライセンス: Link先を確認
Ali Nawaz, Attique Ur Rehman(参考訳) 車両経路予測は車両の移動性において重要な課題の1つである。 それは事故を減らし、人間の生活の快適さを高める手段の1つである。 ルート予測のタスクは、特定の機械学習とディープラーニングライブラリの開発によってより簡単になる。 一方、セキュリティとプライバシーの問題は、常に車両の通信だけでなく、ルート予測にも当てはまります。 そこで我々は,これらの課題を低減し,交差点における車両の走行経路を予測する枠組みを提案する。 具体的には,提案するフレームワークは2つのモジュールから構成される。 本フレームワークの最初のモジュールは,車両ナンバーの認識にディープラーニングを使用している。 そして、機械学習アルゴリズムの特徴として、速度差と以前の移動パターンを用いて車両の経路を予測するために、機械学習の教師付き学習アルゴリズムを用いた第2のモジュールを用いる。 実験の結果,フレームワークの精度が示された。

Vehicle route prediction is one of the significant tasks in vehicles mobility. It is one of the means to reduce the accidents and increase comfort in human life. The task of route prediction becomes simpler with the development of certain machine learning and deep learning libraries. Meanwhile, the security and privacy issues are always lying in the vehicle communication as well as in route prediction. Therefore, we proposed a framework which will reduce these issues in vehicle communication and predict the route of vehicles in crossroads. Specifically, our proposed framework consists of two modules and both are working in sequence. The first module of our framework using a deep learning for recognizing the vehicle license plate number. Then, the second module using supervised learning algorithm of machine learning for predicting the route of the vehicle by using velocity difference and previous mobility patterns as the features of machine learning algorithm. Experiment results shows that accuracy of our framework.
翻訳日:2022-10-23 12:37:12 公開日:2020-08-30
# 運動プリミティブに基づく行動類似性判定

Action similarity judgment based on kinematic primitives ( http://arxiv.org/abs/2008.13176v1 )

ライセンス: Link先を確認
Vipul Nair, Paul Hemeren, Alessia Vignolo, Nicoletta Noceti, Elena Nicora, Alessandra Sciutti, Francesco Rea, Erik Billing, Francesca Odone and Giulio Sandini(参考訳) 人間の行動の類似性を視覚的に認識することは、学習と発達の観点からの人間の行動知覚をより明確にするための重要なステップである。 本研究は,運動学に基づく計算モデルが動作類似度をどの程度決定できるか,その性能が人間の行動類似度判断とどのように関連しているかを考察する。 この目的のために、12人の参加者がアクション類似性タスクを実行し、そのパフォーマンスを同じタスクを解決する計算モデルと比較する。 選択されたモデルは、発達ロボティクスにルーツを持ち、学習されたキネマティックプリミティブに基づいて行動分類を行う。 比較実験の結果,2つの行動が同一であるか否かをモデルと被験者の両方が確実に識別できることがわかった。 しかし、このモデルは偽のヒットを多く生成し、人間の参加者よりも選択バイアスが大きい。 考えられる理由は、提示されたアクションの運動的プリミティブに対するモデルの特定の感度である。 第2の実験では、人間の行動識別タスクにおけるパフォーマンスは、行動意味論よりも運動情報にのみ依存していた。 その結果, 動作類似性課題において, モデルとヒューマンパフォーマンスは, 動作の分類に不可欠な基礎となるキネマティックな特徴に基づく高い精度を示すことができた。

Understanding which features humans rely on -- in visually recognizing action similarity is a crucial step towards a clearer picture of human action perception from a learning and developmental perspective. In the present work, we investigate to which extent a computational model based on kinematics can determine action similarity and how its performance relates to human similarity judgments of the same actions. To this aim, twelve participants perform an action similarity task, and their performances are compared to that of a computational model solving the same task. The chosen model has its roots in developmental robotics and performs action classification based on learned kinematic primitives. The comparative experiment results show that both the model and human participants can reliably identify whether two actions are the same or not. However, the model produces more false hits and has a greater selection bias than human participants. A possible reason for this is the particular sensitivity of the model towards kinematic primitives of the presented actions. In a second experiment, human participants' performance on an action identification task indicated that they relied solely on kinematic information rather than on action semantics. The results show that both the model and human performance are highly accurate in an action similarity task based on kinematic-level features, which can provide an essential basis for classifying human actions.
翻訳日:2022-10-23 12:37:01 公開日:2020-08-30
# SYCLライブラリにおける機械学習によるカーネル選択によるパフォーマンスポータビリティ

Performance portability through machine learning guided kernel selection in SYCL libraries ( http://arxiv.org/abs/2008.13145v1 )

ライセンス: Link先を確認
John Lawson(参考訳) 並列計算カーネルの自動チューニングにより、ライブラリやフレームワークは幅広いハードウェアでパフォーマンスを実現することができるが、これらの技術は通常、特定の入力サイズやパラメータに対する最適なカーネルパラメータを見つけることに焦点を当てている。 汎用計算ライブラリは,ユーザが提供するすべての入力やパラメータに対応できなければならない。 さらに、SYCLのような並列プログラミングフレームワークは、カーネルをライブラリ内に埋め込まれたバイナリフォーマットにデプロイする必要がある。 そのため、ライブラリのサイズを膨らませることなく、多数のカーネル構成をデプロイするのは現実的ではない。 機械学習手法は、これらの問題の両方に対処し、カーネル構成に制限のある汎用ルーチンのパフォーマンスを提供するために使用することができる。 アン教師なしクラスタリング手法は、デプロイすべきカーネルのサブセットを選択するために使用することができ、単純な分類法は、実行時にこれらのカーネルから選択して、優れたパフォーマンスを提供するように訓練できることを示す。 これらの技術は完全に自動化されており、ベンチマークデータのみに依存しているため、新しいハードウェアや問題のチューニングプロセスは開発者の努力や専門知識を必要としない。

Automatically tuning parallel compute kernels allows libraries and frameworks to achieve performance on a wide range of hardware, however these techniques are typically focused on finding optimal kernel parameters for particular input sizes and parameters. General purpose compute libraries must be able to cater to all inputs and parameters provided by a user, and so these techniques are of limited use. Additionally, parallel programming frameworks such as SYCL require that the kernels be deployed in a binary format embedded within the library. As such it is impractical to deploy a large number of possible kernel configurations without inflating the library size. Machine learning methods can be used to mitigate against both of these problems and provide performance for general purpose routines with a limited number of kernel configurations. We show that unsupervised clustering methods can be used to select a subset of the possible kernels that should be deployed and that simple classification methods can be trained to select from these kernels at runtime to give good performance. As these techniques are fully automated, relying only on benchmark data, the tuning process for new hardware or problems does not require any developer effort or expertise.
翻訳日:2022-10-23 12:35:59 公開日:2020-08-30
# 深部ニューラルネットワークを用いたフラックスロープ信号の同定

Identifying Flux Rope Signatures Using a Deep Neural Network ( http://arxiv.org/abs/2008.13294v1 )

ライセンス: Link先を確認
Luiz F. G. dos Santos, Ayris Narock, Teresa Nieves-Chinchilla, Marlon Nu\~nez, Michael Kirk(参考訳) 宇宙気象における現在の課題の1つは、惑星間コロナ質量放出(ICME)の内部磁気配置を予測することである。 現在、観測される単調でコヒーレントな磁気配置は、ヘリカル磁場線トポロジーを持つ大きな磁束ロープを交差する宇宙船の結果と関係している。 このような配置の分類は地磁気外乱の予測に不可欠である。 したがって、ICMEの内部構造がよく組織された磁束ロープであるという仮定に基づいている。 本稿では,ICMEの内部構造を同定し,さらに理解するために,機械学習と現在のフラックスロープ解析モデルを適用した。 我々は,解析的フラックスロープデータを用いた画像認識ニューラルネットワークを,円筒形(円断面および楕円断面)モデルにおいて,可能な多くの軌道の範囲から生成した。 トレーニングされたネットワークは、1995-2015年にWINDから観測されたICMEに対して評価された。 本研究で開発された手法は, 単純な実例の84%を正しく分類でき, 5%の雑音が印加された広い集合に対して76%の成功率を示すが, 正のフラックスロープ分類に有利なバイアスを示す。 一般化可能な分類・パラメータ化ツールへの第一歩として,これらの結果は有望であることを示す。 さらなるチューニングと改良により,本モデルは,In situデータからフラックスロープ構成を識別する堅牢なツールに進化する可能性が強い。

Among the current challenges in Space Weather, one of the main ones is to forecast the internal magnetic configuration within Interplanetary Coronal Mass Ejections (ICMEs). Currently, a monotonic and coherent magnetic configuration observed is associated with the result of a spacecraft crossing a large flux rope with helical magnetic field lines topology. The classification of such an arrangement is essential to predict geomagnetic disturbance. Thus, the classification relies on the assumption that the ICME's internal structure is a well organized magnetic flux rope. This paper applies machine learning and a current physical flux rope analytical model to identify and further understand the internal structures of ICMEs. We trained an image recognition artificial neural network with analytical flux rope data, generated from the range of many possible trajectories within a cylindrical (circular and elliptical cross-section) model. The trained network was then evaluated against the observed ICMEs from WIND during 1995-2015. The methodology developed in this paper can classify 84% of simple real cases correctly and has a 76% success rate when extended to a broader set with 5% noise applied, although it does exhibit a bias in favor of positive flux rope classification. As a first step towards a generalizable classification and parameterization tool, these results show promise. With further tuning and refinement, our model presents a strong potential to evolve into a robust tool for identifying flux rope configurations from in situ data.
翻訳日:2022-10-23 12:35:16 公開日:2020-08-30
# 高等教育における学業成績予測能力向上のための定式化モジュール評価

Formulating Module Assessment for Improved Academic Performance Predictability in Higher Education ( http://arxiv.org/abs/2008.13255v1 )

ライセンス: Link先を確認
Mohammed Alsuwaiket, Anas H. Blasi, Ra'Fat Al-Msie'deen(参考訳) 様々な研究により、学生はコースワークに基づく評価方法によって評価される場合、コースワークによって完全に評価されるモジュール、またはコースワークと試験の混合を含む場合、試験単独で評価されるよりも高いスコアを得る傾向が示されている。 データ作成プロセスを含む従来のデータマイニングプロセスを通じてデータを前処理する教育データマイニング研究は多数存在するが、予測精度に影響を与える可能性のある試験やコース作業結果の重み付けを伴わずに、手書きデータを用いている。 本稿では,登録モジュールの評価手法に基づいて,230000点以上の学生記録を調査し,学生のマークを作成することにより,異なるデータ作成プロセスを提案する。 データ作成プロセス中に学生モジュールマークを洗練する分類因子を抽出するため、データは異なる段階にわたって処理されている。 本研究の結果から,登録モジュール評価手法の性質から学生の最終マークを分離すべきでないことが示された。 edmsデータ前処理フェーズにおいて、より徹底的に検討され、検討されなければならない。 より一般的には、教育データはデータソース、アプリケーション、エラーの種類によって異なるため、他のデータ型と同じ方法で準備するべきではないと結論づけている。 そこで本研究では,学生の書き起こしデータを作成しながら,異なるモジュール評価手法を考慮に入れるために,属性,コースワークアセスメント比を提案する。 ランダム森林分類手法を用いた予測過程におけるCARの影響について検討した。 属性として車を考えると,初年度の結果から2年生平均の予測精度が向上することが示された。

Various studies have shown that students tend to get higher marks when assessed through coursework based assessment methods which include either modules that are fully assessed through coursework or a mixture of coursework and examinations than assessed by examination alone. There are a large number of educational data mining studies that preprocess data through conventional data mining processes including data preparation process, but they are using transcript data as they stand without looking at examination and coursework results weighting which could affect prediction accuracy. This paper proposes a different data preparation process through investigating more than 230000 student records in order to prepare students marks based on the assessment methods of enrolled modules. The data have been processed through different stages in order to extract a categorical factor through which students module marks are refined during the data preparation process. The results of this work show that students final marks should not be isolated from the nature of the enrolled modules assessment methods. They must rather be investigated thoroughly and considered during EDMs data preprocessing phases. More generally, it is concluded that educational data should not be prepared in the same way as other data types due to differences as data sources, applications, and types of errors in them. Therefore, an attribute, coursework assessment ratio, is proposed to be used in order to take the different modules assessment methods into account while preparing student transcript data. The effect of CAR on prediction process using the random forest classification technique has been investigated. It is shown that considering CAR as an attribute increases the accuracy of predicting students second year averages based on their first year results.
翻訳日:2022-10-23 12:29:39 公開日:2020-08-30
# 概念的多元参照意味論と自己組織化マップとの関係について

On a plausible concept-wise multipreference semantics and its relations with self-organising maps ( http://arxiv.org/abs/2008.13278v1 )

ライセンス: Link先を確認
Laura Giordano, Valentina Gliozzi, Daniele Theseider Dupr\'e(参考訳) inthispaperwedescribeaconcept-wise multi-preferencesemantics for description logic which have its root in the preferential approach for modeling defeasible reasoning in knowledge representation この提案はklmの仮定のような望ましい性質を満たし、drrowning問題を避けることに加えて、意味論の説得力のある概念も定義している。 自己組織マップの論理的意味論を発達させ,概念的多元的意味論の妥当性を動機付け,多元的意味論の観点でカテゴリー一般化の基礎となる心理学的メカニズムを説明するための候補として提案する。

Inthispaperwedescribeaconcept-wisemulti-preferencesemantics for description logic which has its root in the preferential approach for modeling defeasible reasoning in knowledge representation. We argue that this proposal, beside satisfying some desired properties, such as KLM postulates, and avoiding the drowning problem, also defines a plausible notion of semantics. We motivate the plausibility of the concept-wise multi-preference semantics by developing a logical semantics of self-organising maps, which have been proposed as possible candidates to explain the psychological mechanisms underlying category generalisation, in terms of multi-preference interpretations.
翻訳日:2022-10-23 12:29:12 公開日:2020-08-30
# MDCN:画像超解像のためのマルチスケール高密度クロスネットワーク

MDCN: Multi-scale Dense Cross Network for Image Super-Resolution ( http://arxiv.org/abs/2008.13084v1 )

ライセンス: Link先を確認
Juncheng Li, Faming Fang, Jiaqian Li, Kangfu Mei, Guixu Zhang(参考訳) 畳み込みニューラルネットワークは、単一画像の超解像(SISR)にとって大きなメリットがあることが証明されている。 しかし、従来の研究はマルチスケール機能を完全に利用せず、異なるアップサンプリング要因間のスケール間相関を無視し、結果として準最適性能をもたらす。 ネットワークの深さを盲目的に増やす代わりに、画像の特徴をマイニングし、異なるアップサンプリング要因間のスケール間の相関を学習することにコミットしています。 そこで本研究では,より少ないパラメータと少ない実行時間で優れた性能を実現するマルチスケールDense Cross Network (MDCN)を提案する。 MDCNはマルチスケールの高密度クロスブロック(MDCB)、階層的特徴蒸留ブロック(HFDB)、動的再構成ブロック(DRB)から構成される。 MDCBはマルチスケールの特徴の検出と異なるスケールでの画像特徴フローの利用を最大化することを目的としており、HFDBは特徴蒸留を達成するためにチャンネルワイドの特徴応答を適応的に補正することに焦点を当てており、DRBは一つのモデルで異なるアップサンプリング因子でSR画像の再構成を試みる。 これらのモジュールがすべて独立して動作できることは注目に値する。 つまり、これらのモジュールを任意のcnnモデルに選択的にプラグインして、モデルパフォーマンスを改善することができる。 広範囲な実験により,MDCNはSISRにおいて,特に複数のアップサンプリング因子を用いた再建作業において,競争力を発揮することが示された。 コードはhttps://github.com/MIVRC/MDCN-PyTorchで提供される。

Convolutional neural networks have been proven to be of great benefit for single-image super-resolution (SISR). However, previous works do not make full use of multi-scale features and ignore the inter-scale correlation between different upsampling factors, resulting in sub-optimal performance. Instead of blindly increasing the depth of the network, we are committed to mining image features and learning the inter-scale correlation between different upsampling factors. To achieve this, we propose a Multi-scale Dense Cross Network (MDCN), which achieves great performance with fewer parameters and less execution time. MDCN consists of multi-scale dense cross blocks (MDCBs), hierarchical feature distillation block (HFDB), and dynamic reconstruction block (DRB). Among them, MDCB aims to detect multi-scale features and maximize the use of image features flow at different scales, HFDB focuses on adaptively recalibrate channel-wise feature responses to achieve feature distillation, and DRB attempts to reconstruct SR images with different upsampling factors in a single model. It is worth noting that all these modules can run independently. It means that these modules can be selectively plugged into any CNN model to improve model performance. Extensive experiments show that MDCN achieves competitive results in SISR, especially in the reconstruction task with multiple upsampling factors. The code will be provided at https://github.com/MIVRC/MDCN-PyTorch.
翻訳日:2022-10-23 12:28:49 公開日:2020-08-30
# 移動学習に基づく複数国における道路被害検出

Transfer Learning-based Road Damage Detection for Multiple Countries ( http://arxiv.org/abs/2008.13101v1 )

ライセンス: Link先を確認
Deeksha Arya (1, 2), Hiroya Maeda (2), Sanjay Kumar Ghosh (1), Durga Toshniwal (1), Alexander Mraz (2, 3), Takehiro Kashiyama (2), and Yoshihide Sekimoto (2) ((1) Indian Institute of Technology Roorkee, India, (2) The University of Tokyo, Japan, (3) Amazon EU, Luxembourg)(参考訳) 多くの自治体や道路当局が道路被害の自動評価を実施している。 しかし、データ収集や道路損傷の分析に最先端の設備を購入するための技術やノウハウ、資金が欠如していることが多い。 日本など一部の国では、安価なスマートフォンベースの自動道路状況監視手法が開発されているが、他の国は効率的な解決策を見つけるのに苦戦している。 この研究はこの文脈で以下の貢献をする。 まず,他国における日本語モデルのユーザビリティを評価する。 次に,スマートフォンを用いて複数の国から収集した26620枚の画像からなる大規模道路被害データセットを提案する。 第3に,複数の国で道路被害を検知・分類できる一般化モデルを提案する。 最後に、他国が道路損傷の自動検出と分類のためのデータとモデルを公開する場合、読者、地方機関、自治体に対して推奨する。 私たちのデータセットはhttps://github.com/sekilab/RoadDamageDetector/)で利用可能です。

Many municipalities and road authorities seek to implement automated evaluation of road damage. However, they often lack technology, know-how, and funds to afford state-of-the-art equipment for data collection and analysis of road damages. Although some countries, like Japan, have developed less expensive and readily available Smartphone-based methods for automatic road condition monitoring, other countries still struggle to find efficient solutions. This work makes the following contributions in this context. Firstly, it assesses the usability of the Japanese model for other countries. Secondly, it proposes a large-scale heterogeneous road damage dataset comprising 26620 images collected from multiple countries using smartphones. Thirdly, we propose generalized models capable of detecting and classifying road damages in more than one country. Lastly, we provide recommendations for readers, local agencies, and municipalities of other countries when one other country publishes its data and model for automatic road damage detection and classification. Our dataset is available at (https://github.com/sekilab/RoadDamageDetector/).
翻訳日:2022-10-23 12:28:22 公開日:2020-08-30
# 観察による学習:人間のナビゲータのビデオからドローンをパトロールするための模倣学習

Learn by Observation: Imitation Learning for Drone Patrolling from Videos of A Human Navigator ( http://arxiv.org/abs/2008.13193v1 )

ライセンス: Link先を確認
Yue Fan, Shilei Chu, Wei Zhang, Ran Song, and Yibin Li(参考訳) 本稿では,映像のみに基づく自律型ドローンパトロールの模倣学習手法を提案する。 従来の方法とは違って,人間ナビゲータが地上でどのように行うかを観察し模倣することにより,ドローンが空中パトロールを学ばせることを提案する。 この観察プロセスにより、フレーム間の幾何学的整合性を利用してデータの自動収集とアノテーションが可能となり、手作業の少ない精度と精度が向上する。 そして、アノテートされたデータに基づいて、新たに設計されたニューラルネットワークを訓練し、ドローンが車線維持方式でパトロールする適切な方向と翻訳を予測する。 我々の方法では、広い視野と低いリスクで高高度を飛行することができる。 また、横断歩道でアクセス可能なすべての方向を検知し、利用可能なユーザー指示と自律的なパトロール制御コマンドを統合することもできる。 提案した模倣学習プロセスの精度と,自律型ドローンナビゲーションのための総合システムの信頼性を示すため,大規模な実験を行った。 コード、データセット、ビデオデモはhttps://vsislab.github.io/uavpatrolで公開されている。

We present an imitation learning method for autonomous drone patrolling based only on raw videos. Different from previous methods, we propose to let the drone learn patrolling in the air by observing and imitating how a human navigator does it on the ground. The observation process enables the automatic collection and annotation of data using inter-frame geometric consistency, resulting in less manual effort and high accuracy. Then a newly designed neural network is trained based on the annotated data to predict appropriate directions and translations for the drone to patrol in a lane-keeping manner as humans. Our method allows the drone to fly at a high altitude with a broad view and low risk. It can also detect all accessible directions at crossroads and further carry out the integration of available user instructions and autonomous patrolling control commands. Extensive experiments are conducted to demonstrate the accuracy of the proposed imitating learning process as well as the reliability of the holistic system for autonomous drone navigation. The codes, datasets as well as video demonstrations are available at https://vsislab.github.io/uavpatrol
翻訳日:2022-10-23 12:28:08 公開日:2020-08-30
# 戦略的議論における腐敗と監査

Corruption and Audit in Strategic Argumentation ( http://arxiv.org/abs/2008.13115v1 )

ライセンス: Link先を確認
Michael J. Maher(参考訳) 戦略的議論はエージェント間の議論と交渉の単純なモデルを提供する。 エージェントは最善の利益のために行動することが期待されますが、そのような行為を強制するものはほとんどありません。 (maher, 2016) 戦略的議論の中で腐敗と腐敗に対する抵抗のモデルを導入した。 本稿では,その定式化では検出されない腐敗行動を明らかにする。 このような行動を検出するためのモデルを強化し、強化されたモデルの下では、すべての戦略目標(Maher, 2016)が腐敗に対して抵抗的であることを示す。

Strategic argumentation provides a simple model of disputation and negotiation among agents. Although agents might be expected to act in our best interests, there is little that enforces such behaviour. (Maher, 2016) introduced a model of corruption and resistance to corruption within strategic argumentation. In this paper we identify corrupt behaviours that are not detected in that formulation. We strengthen the model to detect such behaviours, and show that, under the strengthened model, all the strategic aims in (Maher, 2016) are resistant to corruption.
翻訳日:2022-10-23 12:27:51 公開日:2020-08-30
# エージェントベースモデリングによる協調競技のコアメンバー発見

Finding Core Members of Cooperative Games using Agent-Based Modeling ( http://arxiv.org/abs/2009.00519v1 )

ライセンス: Link先を確認
Daniele Vernon-Bido, Andrew J. Collins(参考訳) エージェントベースモデリング(ABM)は、社会現象の洞察を得るための強力なパラダイムである。 abmがほとんど適用されていない領域は連合形成である。 伝統的に、連立形成は協調ゲーム理論を用いてモデル化される。 本稿では,エージェントが連立関係を見つけるために,abmに組み込むことができるヒューリスティックアルゴリズムを開発した。 結果として生じる連立構造は、協調ゲーム理論の解法、特にコアの解法に匹敵する。 ヒューリスティックなアプローチは、その応用をエージェントのスコアのみに制限する協調ゲーム理論解を見つけるという計算複雑性のために要求される。 ABMパラダイムは、エージェント間の単純なルールと相互作用が大きな計算要求なしにマクロレベルの効果を生み出すことができるプラットフォームを提供する。 そのため、多数のエージェントに対して協調的なゲームソリューションを近似する有効な手段となり得る。 我々のヒューリスティックアルゴリズムはエージェントベースのモデリングと協調ゲーム理論を組み合わせて、ゲームのコアソリューションのメンバーであるエージェントパーティションを見つけるのに役立つ。 我々のヒューリスティックアルゴリズムの精度は、その結果と実際のコア解を比較することで決定できる。 この比較は、グローブゲームと呼ばれる協調ゲームの特定の例を使用する実験を開発することで達成された。 グローブゲーム(英: glove game)は、交換経済ゲームの一種である。 従来の協調ゲーム理論の解を見つけることは、多くのプレイヤーにとって計算集約的な方法である。なぜなら、各パーティションは、コアセットを決定するために、それぞれのアライアンスと比較する必要があるからである。 その結果,我々のヒューリスティックアプローチは,実験で考慮したゲームの90%以上をコアソリューションとして実現していることがわかった。

Agent-based modeling (ABM) is a powerful paradigm to gain insight into social phenomena. One area that ABM has rarely been applied is coalition formation. Traditionally, coalition formation is modeled using cooperative game theory. In this paper, a heuristic algorithm is developed that can be embedded into an ABM to allow the agents to find coalition. The resultant coalition structures are comparable to those found by cooperative game theory solution approaches, specifically, the core. A heuristic approach is required due to the computational complexity of finding a cooperative game theory solution which limits its application to about only a score of agents. The ABM paradigm provides a platform in which simple rules and interactions between agents can produce a macro-level effect without the large computational requirements. As such, it can be an effective means for approximating cooperative game solutions for large numbers of agents. Our heuristic algorithm combines agent-based modeling and cooperative game theory to help find agent partitions that are members of a games' core solution. The accuracy of our heuristic algorithm can be determined by comparing its outcomes to the actual core solutions. This comparison achieved by developing an experiment that uses a specific example of a cooperative game called the glove game. The glove game is a type of exchange economy game. Finding the traditional cooperative game theory solutions is computationally intensive for large numbers of players because each possible partition must be compared to each possible coalition to determine the core set; hence our experiment only considers games of up to nine players. The results indicate that our heuristic approach achieves a core solution over 90% of the time for the games considered in our experiment.
翻訳日:2022-10-23 12:27:43 公開日:2020-08-30
# diproperm: DiProPermテスト用のRパッケージ

diproperm: An R Package for the DiProPerm Test ( http://arxiv.org/abs/2009.00003v1 )

ライセンス: Link先を確認
Andrew G. Allmon, J.S. Marron, and Michael G. Hudgens(参考訳) 高次元低サンプルサイズ(HDLSS)データセットは多くの医学的応用で頻繁に現れる。 hdlssデータを分析する一般的なタスクは、分類器を使用してデータを正しいクラスに割り当てることである。 2つのラベルと特徴の線形結合を使用する分類器は、バイナリ線形分類器(binary linear classifiers)と呼ばれる。 二元線形分類器により誘導される2つの高次元分布の差をテストするために,方向投影置換(DiProPerm)試験を開発した。 本稿では,DiProPermテストの主要なコンポーネントについて論じ,diproperm Rパッケージを導入し,実世界のデータセット上でそのパッケージを実証する。

High-dimensional low sample size (HDLSS) data sets emerge frequently in many biomedical applications. A common task for analyzing HDLSS data is to assign data to the correct class using a classifier. Classifiers which use two labels and a linear combination of features are known as binary linear classifiers. The direction-projection-permutation (DiProPerm) test was developed for testing the difference of two high-dimensional distributions induced by a binary linear classifier. This paper discusses the key components of the DiProPerm test, introduces the diproperm R package, and demonstrates the package on a real-world data set.
翻訳日:2022-10-23 12:20:52 公開日:2020-08-30
# アルツハイマー型認知症検出のためのマルチモーダルインダクティブトランスファー学習とその重症度

Multimodal Inductive Transfer Learning for Detection of Alzheimer's Dementia and its Severity ( http://arxiv.org/abs/2009.00700v1 )

ライセンス: Link先を確認
Utkarsh Sarawgi, Wazeer Zulfikar, Nouran Soliman, Pattie Maes(参考訳) アルツハイマー病は世界中で約5000万人に影響を与えると推定され、世界経済の負担は1兆ドル近くと急速に増加している。 これにより、スケーラブルで費用対効果が高く、ロバストなアルツハイマー型認知症(ad)検出法が要求される。 本稿では,音響的,認知的,言語的特徴を活用し,マルチモーダルアンサンブルシステムを構築する新しいアーキテクチャを提案する。 時間的特徴を持つ特殊なニューラルネットワークを使用してadとその重大度を検出し、mini-mental state examination (mmse)スコアによって反映される。 まず,adress challengeデータセットについて評価を行った。adress challengeデータセットは,対象に依存しないバランスの取れたデータセットで,バイアスを軽減するために年齢と性別にマッチする。 本システムでは,AD分類では最先端試験精度,精度,リコール,F1スコアが83.3%,MMSEスコア評価では4.60の最先端試験根平均二乗誤差(RMSE)が得られた。 我々の知る限り、このシステムは、DementiaBank Pittデータベースの全ベンチマークで評価すると、最先端のAD分類精度88.0%を達成する。 本研究は,頑健な帰納的伝達学習モデルを構築するための自然発話の適用性と伝達性を強調し,タスクに依存しない特徴空間による一般化性を示す。 ソースコードはhttps://github.com/wazeerzulfikar/alzheimers-dementiaで入手できる。

Alzheimer's disease is estimated to affect around 50 million people worldwide and is rising rapidly, with a global economic burden of nearly a trillion dollars. This calls for scalable, cost-effective, and robust methods for detection of Alzheimer's dementia (AD). We present a novel architecture that leverages acoustic, cognitive, and linguistic features to form a multimodal ensemble system. It uses specialized artificial neural networks with temporal characteristics to detect AD and its severity, which is reflected through Mini-Mental State Exam (MMSE) scores. We first evaluate it on the ADReSS challenge dataset, which is a subject-independent and balanced dataset matched for age and gender to mitigate biases, and is available through DementiaBank. Our system achieves state-of-the-art test accuracy, precision, recall, and F1-score of 83.3% each for AD classification, and state-of-the-art test root mean squared error (RMSE) of 4.60 for MMSE score regression. To the best of our knowledge, the system further achieves state-of-the-art AD classification accuracy of 88.0% when evaluated on the full benchmark DementiaBank Pitt database. Our work highlights the applicability and transferability of spontaneous speech to produce a robust inductive transfer learning model, and demonstrates generalizability through a task-agnostic feature-space. The source code is available at https://github.com/wazeerzulfikar/alzheimers-dementia
翻訳日:2022-10-23 12:20:42 公開日:2020-08-30
# パーソナライズされたテレビレコメンデーション:ユーザー行動と嗜好を融合させる

Personalized TV Recommendation: Fusing User Behavior and Preferences ( http://arxiv.org/abs/2009.08957v1 )

ライセンス: Link先を確認
Sheng-Chieh Lin, Ting-Wei Lin, Jing-Kai Lou, Ming-Feng Tsai, Chuan-Ju Wang(参考訳) 本稿では,リニアtv番組を推薦する二段階ランキング手法を提案する。 提案手法は,まず時間とテレビチャンネルに関するユーザの視聴パターンを利用して推薦候補を識別し,さらにプログラムに関するテキスト情報から候補のランク付けを行う。 本手法を評価するために,実世界のテレビデータセットについて実証実験を行い,推薦精度と時間効率の両面で,モデルの優れた性能を示す。

In this paper, we propose a two-stage ranking approach for recommending linear TV programs. The proposed approach first leverages user viewing patterns regarding time and TV channels to identify potential candidates for recommendation and then further leverages user preferences to rank these candidates given textual information about programs. To evaluate the method, we conduct empirical studies on a real-world TV dataset, the results of which demonstrate the superior performance of our model in terms of both recommendation accuracy and time efficiency.
翻訳日:2022-10-23 12:20:17 公開日:2020-08-30
# 脳グラフ埋め込みと分類のためのディープハイパーグラフU-Net

Deep Hypergraph U-Net for Brain Graph Embedding and Classification ( http://arxiv.org/abs/2008.13118v1 )

ライセンス: Link先を確認
Mert Lostar and Islem Rekik(参考訳) -バックグラウンド。 ネットワーク神経科学は、脳をネットワーク(またはコネクトーム)で表される複雑なシステムとして調べ、脳の形態や機能について深い洞察を与え、神経疾患の診断マーカーとして使用できる非定型的な脳接続変化の同定を可能にする。 -既存の方法。 データのサンプル(例えば脳ネットワーク)を低次元空間にマッピングするグラフ埋め込み法は、分類や予測タスクのサンプル間の関係を探索するために広く用いられている。 しかしながら、これらの研究の大部分は、サンプル間のペアワイズ関係のモデリングに基づいており、高次関係の取得に失敗している。 -新しい方法。 本稿では,幾何学的深層学習の新たな分野であるハイパーグラフU-Net(HUNet)を提案する。これはハイパーグラフ構造を利用して高次関係を捉えながら,データサンプルの低次元埋め込みを学習する新しいデータ埋め込みフレームワークである。 具体的には、グラフ上で自然に動作するu-netアーキテクチャをハイパーグラフに一般化し、局所的な特徴集約を改善し、データに存在する高次関係を保存する。 -結果。 自閉症患者の形態的・機能的脳ネットワークを含む,小規模・大規模異種脳コネクストミクスデータセットを用いた実験を行った。 -結論。 我々のHUNetは4-14%の精度で最先端の幾何グラフとハイパーグラフデータ埋め込み技術に優れ、スケーラビリティと一般化性の両方を実証した。 HUNetコードはhttps://github.com/basiralab/HUNetで入手できる。

-Background. Network neuroscience examines the brain as a complex system represented by a network (or connectome), providing deeper insights into the brain morphology and function, allowing the identification of atypical brain connectivity alterations, which can be used as diagnostic markers of neurological disorders. -Existing Methods. Graph embedding methods which map data samples (e.g., brain networks) into a low dimensional space have been widely used to explore the relationship between samples for classification or prediction tasks. However, the majority of these works are based on modeling the pair-wise relationships between samples, failing to capture their higher-order relationships. -New Method. In this paper, inspired by the nascent field of geometric deep learning, we propose Hypergraph U-Net (HUNet), a novel data embedding framework leveraging the hypergraph structure to learn low-dimensional embeddings of data samples while capturing their high-order relationships. Specifically, we generalize the U-Net architecture, naturally operating on graphs, to hypergraphs by improving local feature aggregation and preserving the high-order relationships present in the data. -Results. We tested our method on small-scale and large-scale heterogeneous brain connectomic datasets including morphological and functional brain networks of autistic and demented patients, respectively. -Conclusion. Our HUNet outperformed state-of-the-art geometric graph and hypergraph data embedding techniques with a gain of 4-14% in classification accuracy, demonstrating both scalability and generalizability. HUNet code is available at https://github.com/basiralab/HUNet.
翻訳日:2022-10-23 12:20:08 公開日:2020-08-30
# ニューロモルフィックコンピューティングを用いた浮動小数点乗法

Floating-Point Multiplication Using Neuromorphic Computing ( http://arxiv.org/abs/2008.13245v1 )

ライセンス: Link先を確認
Karn Dubey and Urja Kothari and Shrisha Rao(参考訳) ニューロモルフィックコンピューティングは、神経生物学的アーキテクチャを模倣するためのVLSIシステムの使用を記述しており、従来のフォン・ノイマンアーキテクチャの代替として期待されている。 新しいコンピューティングアーキテクチャは、浮動小数点演算を実行できるシステムを必要とする。 本稿では,IEEE 754準拠の浮動小数点乗算を行うニューロモルフィックシステムについて述べる。 乗算の複雑なプロセスは、Exponent Adder、Bias Subtractor、Mantissa Multiplier、Sign OF/UFによって実行される小さなサブタスクに分割される。 本研究では,ビット毎のニューロン数が精度およびビット誤り率に及ぼす影響について検討し,各成分に必要なニューロン数を推定する。

Neuromorphic computing describes the use of VLSI systems to mimic neuro-biological architectures and is also looked at as a promising alternative to the traditional von Neumann architecture. Any new computing architecture would need a system that can perform floating-point arithmetic. In this paper, we describe a neuromorphic system that performs IEEE 754-compliant floating-point multiplication. The complex process of multiplication is divided into smaller sub-tasks performed by components Exponent Adder, Bias Subtractor, Mantissa Multiplier and Sign OF/UF. We study the effect of the number of neurons per bit on accuracy and bit error rate, and estimate the optimal number of neurons needed for each component.
翻訳日:2022-10-23 12:19:35 公開日:2020-08-30
# 地理空間データ解析のための深層学習技術

Deep Learning Techniques for Geospatial Data Analysis ( http://arxiv.org/abs/2008.13146v1 )

ライセンス: Link先を確認
Arvind W. Kiwelekar, Geetanjali S. Mahamunkar, Laxman D. Netak, Valmik B Nikam(参考訳) 携帯電話、RFIDラベルでタグ付けされた商品、位置情報センサーなどの消費者電子デバイスは、地理空間データと呼ばれる大量の位置情報を連続的に生成している。 従来の地理空間データは軍事用途に使用される。 近年、多くの有用な民間アプリケーションがこのような地理空間データを中心に設計・展開されている。 例えば、特定の地域を訪れる観光客にレストランやアトラクションの場所を提案するレコメンデーションシステム。 同時に、市民は、リモートセンシング装置を通じて生成された地理空間データを利用して、交通監視、ポットホールの識別、天気予報などのより良いサービスを提供している。 通常、そのようなアプリケーションは、Naive-Bayes Classifiers、Support Vector Machines、Deciment Treeといった非階層的な機械学習技術に活用される。 近年のディープラーニング分野の進歩は,ニューラルネットワークに基づく手法が従来の手法より優れており,オブジェクト認識や画像分類,シーン理解といった多くの地理空間データ解析タスクに有効なソリューションを提供することを示している。 本章では,地理空間データ解析における深層学習技術の適用状況について調査する。 以下の章が構成されている。 (i)ディープラーニングアルゴリズムの概要 (ii)地理空間分析:データサイエンスの観点から (iii)リモートセンシングデータ分析タスクのためのディープラーニング技術 (4)GPSデータ分析のためのディープラーニング技術 (4)RFIDデータ分析のためのディープラーニング技術。

Consumer electronic devices such as mobile handsets, goods tagged with RFID labels, location and position sensors are continuously generating a vast amount of location enriched data called geospatial data. Conventionally such geospatial data is used for military applications. In recent times, many useful civilian applications have been designed and deployed around such geospatial data. For example, a recommendation system to suggest restaurants or places of attraction to a tourist visiting a particular locality. At the same time, civic bodies are harnessing geospatial data generated through remote sensing devices to provide better services to citizens such as traffic monitoring, pothole identification, and weather reporting. Typically such applications are leveraged upon non-hierarchical machine learning techniques such as Naive-Bayes Classifiers, Support Vector Machines, and decision trees. Recent advances in the field of deep-learning showed that Neural Network-based techniques outperform conventional techniques and provide effective solutions for many geospatial data analysis tasks such as object recognition, image classification, and scene understanding. The chapter presents a survey on the current state of the applications of deep learning techniques for analyzing geospatial data. The chapter is organized as below: (i) A brief overview of deep learning algorithms. (ii)Geospatial Analysis: a Data Science Perspective (iii) Deep-learning techniques for Remote Sensing data analytics tasks (iv) Deep-learning techniques for GPS data analytics(iv) Deep-learning techniques for RFID data analytics.
翻訳日:2022-10-23 12:19:22 公開日:2020-08-30
# Sparse-to-Dense フレームワークを用いたアクションチューブの探索

Finding Action Tubes with a Sparse-to-Dense Framework ( http://arxiv.org/abs/2008.13196v1 )

ライセンス: Link先を確認
Yuxi Li, Weiyao Lin, Tao Wang, John See, Rui Qian, Ning Xu, Limin Wang, Shugong Xu(参考訳) 時空間行動検出の課題は研究者の間で注目を集めている。 既存の支配的な手法では、各フレームやクリップの短期的な情報と密集した連続的な検出に頼ることでこの問題を解決している。 有効性にも拘わらず、これらの手法は長期的な情報の利用が不十分であり、非効率になりがちである。 本稿では,1つのフォワードパスを持つビデオストリームから,スパース・トゥ・デンスな方法でアクションチューブ提案を生成する,効率的なフレームワークを初めて提案する。 このフレームワークには2つの重要な特徴がある: 1) 長期サンプル情報と短期サンプル情報の両方を時空間ネットワークで明示的に利用し、(2) 新しい動的特徴サンプリングモジュール(DTS)は、システムをトラクタブルに保ちながらチューブ出力を効果的に近似するように設計されている。 UCF101-24, JHMDB-21, UCFSportsベンチマークデータセット上で, 最先端手法と競合する有望な結果が得られた。 提案されたスパース・トゥ・デンス戦略により、我々のフレームワークは最も近い競合相手の約7.6倍効率が向上した。

The task of spatial-temporal action detection has attracted increasing attention among researchers. Existing dominant methods solve this problem by relying on short-term information and dense serial-wise detection on each individual frames or clips. Despite their effectiveness, these methods showed inadequate use of long-term information and are prone to inefficiency. In this paper, we propose for the first time, an efficient framework that generates action tube proposals from video streams with a single forward pass in a sparse-to-dense manner. There are two key characteristics in this framework: (1) Both long-term and short-term sampled information are explicitly utilized in our spatiotemporal network, (2) A new dynamic feature sampling module (DTS) is designed to effectively approximate the tube output while keeping the system tractable. We evaluate the efficacy of our model on the UCF101-24, JHMDB-21 and UCFSports benchmark datasets, achieving promising results that are competitive to state-of-the-art methods. The proposed sparse-to-dense strategy rendered our framework about 7.6 times more efficient than the nearest competitor.
翻訳日:2022-10-23 12:19:03 公開日:2020-08-30
# リアルタイムsaliency予測のためのコンパクト深層アーキテクチャ

A Compact Deep Architecture for Real-time Saliency Prediction ( http://arxiv.org/abs/2008.13227v1 )

ライセンス: Link先を確認
Samad Zabihi, Hamed Rezazadegan Tavakoli, Ali Borji(参考訳) 残差計算モデルは人間の視覚系における注意機構を模倣することを目的としている。 深層ニューラルネットワークの唾液率予測への応用は、ここ数年で大幅に改善されている。 しかし、深層モデルには多くのパラメータがあるため、リアルタイムアプリケーションには適さない。 本稿では,実時間精度予測のためのコンパクトかつ高速なモデルを提案する。 提案モデルは,u-netアーキテクチャの改良,新しい完全連結層,中央差分畳み込み層からなる。 修正されたu-netアーキテクチャはコンパクト性と効率性を促進する。 新たな完全接続層は、位置依存情報の暗黙的捕捉を容易にする。 異なるスケールで中央差分畳み込み層を使用することで、より堅牢で生物学的に動機付けられた特徴をキャプチャできる。 従来のサリエンシスコアと新たに考案したスキームを用いて,我々のモデルとアートサリエンシモデルの現状を比較した。 4つの難解なsaliency benchmarkデータセットに対する実験結果は、精度と速度のバランスを取るためのアプローチの有効性を示しています。 我々のモデルは、エッジデバイスやビデオ処理にアピールするために、リアルタイムで実行できる。

Saliency computation models aim to imitate the attention mechanism in the human visual system. The application of deep neural networks for saliency prediction has led to a drastic improvement over the last few years. However, deep models have a high number of parameters which makes them less suitable for real-time applications. Here we propose a compact yet fast model for real-time saliency prediction. Our proposed model consists of a modified U-net architecture, a novel fully connected layer, and central difference convolutional layers. The modified U-Net architecture promotes compactness and efficiency. The novel fully-connected layer facilitates the implicit capturing of the location-dependent information. Using the central difference convolutional layers at different scales enables capturing more robust and biologically motivated features. We compare our model with state of the art saliency models using traditional saliency scores as well as our newly devised scheme. Experimental results over four challenging saliency benchmark datasets demonstrate the effectiveness of our approach in striking a balance between accuracy and speed. Our model can be run in real-time which makes it appealing for edge devices and video processing.
翻訳日:2022-10-23 12:18:41 公開日:2020-08-30
# 軽量擬似3次元畳み込みと表面点回帰を用いた深部ユニバーサル病変検出

Deep Volumetric Universal Lesion Detection using Light-Weight Pseudo 3D Convolution and Surface Point Regression ( http://arxiv.org/abs/2008.13254v1 )

ライセンス: Link先を確認
Jinzheng Cai, Ke Yan, Chi-Tung Cheng, Jing Xiao, Chien-Hung Liao, Le Lu, Adam P. Harrison(参考訳) 患者ctスキャンから病変を正確にかつ包括的に同定し,測定し,報告することは重要であるが,医師にとって時間を要する手順である。 3d画像における病変の出現, 位置, サイズ分布の変動が非常に大きいため, コンピュータ支援型病変検出技術は医用画像のコアとなっている。 本研究では,(1)既設の2dネットワークから,特にデータばらつきに対処できる容量の大きいネットワークから,アーキテクチャ構成と事前訓練された重みをリサイクルするp3dcオペレータを組み込んだ,新しいディープアンカーフリーな1段階vuldフレームワークを提案し,(2)病変表面上の代表的キーポイントをピンポイントして,3次元病変の空間的範囲を効果的に後退させる新しいspr法を提案する。 実験による検証は,提案手法が新しい最先端の定量的性能を提供する公開大規模NIH DeepLesionデータセット上で行った。 また肝腫瘍検出のための社内データセット上でVULDを試験した。 VULDはCT画像における大規模および小型の腫瘍データセットにおいてよく一般化される。

Identifying, measuring and reporting lesions accurately and comprehensively from patient CT scans are important yet time-consuming procedures for physicians. Computer-aided lesion/significant-findings detection techniques are at the core of medical imaging, which remain very challenging due to the tremendously large variability of lesion appearance, location and size distributions in 3D imaging. In this work, we propose a novel deep anchor-free one-stage VULD framework that incorporates (1) P3DC operators to recycle the architectural configurations and pre-trained weights from the off-the-shelf 2D networks, especially ones with large capacities to cope with data variance, and (2) a new SPR method to effectively regress the 3D lesion spatial extents by pinpointing their representative key points on lesion surfaces. Experimental validations are first conducted on the public large-scale NIH DeepLesion dataset where our proposed method delivers new state-of-the-art quantitative performance. We also test VULD on our in-house dataset for liver tumor detection. VULD generalizes well in both large-scale and small-sized tumor datasets in CT imaging.
翻訳日:2022-10-23 12:18:26 公開日:2020-08-30
# ユークリッド空間における階層的クラスタリングの目的と二分的K平均との関係

An Objective for Hierarchical Clustering in Euclidean Space and its Connection to Bisecting K-means ( http://arxiv.org/abs/2008.13235v1 )

ライセンス: Link先を確認
Benjamin Moseley, Yuyan Wang(参考訳) 本稿では,各点の対が差点(距離など)を入力として持つ場合の階層的クラスタリングについて検討する。 最近導入された異質点の目的により、距離が距離となるとすべての木は1/2近似となる。 これは、目的が計量空間における良好な階層的クラスタリングと貧弱な階層的クラスタリングを区別していないことを示している。 そこで本稿では,ユークリッド空間における階層的クラスタリングのための新たなグローバル目標について述べる。 この目標は、分割クラスタリングアルゴリズムを使用する動機となった基準をキャプチャする: スプリットが発生した場合、同じクラスタ内のポイントは、異なるクラスタ内のポイントよりもよく似ているべきである。 さらに、この目的は階層的クラスタリングの基盤となる入力に対して合理的な結果を与える。 本稿は、この目的と二分法k平均アルゴリズムとの理論的関係を構築する。 本稿では,最適2平均解が目的に対して一定の近似をもたらすことを示す。 二分法k-平均アルゴリズムが木全体の自然な大域的目標を最適化することを示す最初の論文である。

This paper explores hierarchical clustering in the case where pairs of points have dissimilarity scores (e.g. distances) as a part of the input. The recently introduced objective for points with dissimilarity scores results in every tree being a 1/2 approximation if the distances form a metric. This shows the objective does not make a significant distinction between a good and poor hierarchical clustering in metric spaces. Motivated by this, the paper develops a new global objective for hierarchical clustering in Euclidean space. The objective captures the criterion that has motivated the use of divisive clustering algorithms: that when a split happens, points in the same cluster should be more similar than points in different clusters. Moreover, this objective gives reasonable results on ground-truth inputs for hierarchical clustering. The paper builds a theoretical connection between this objective and the bisecting k-means algorithm. This paper proves that the optimal 2-means solution results in a constant approximation for the objective. This is the first paper to show the bisecting k-means algorithm optimizes a natural global objective over the entire tree.
翻訳日:2022-10-23 12:12:20 公開日:2020-08-30
# QMUL-SDS - CheckThat! 2020年: 数値表現付きCT-BERTで新型コロナウイルスのツイートチェックを決定

QMUL-SDS at CheckThat! 2020: Determining COVID-19 Tweet Check-Worthiness Using an Enhanced CT-BERT with Numeric Expressions ( http://arxiv.org/abs/2008.13160v1 )

ライセンス: Link先を確認
Rabab Alkhalifa, Theodore Yoong, Elena Kochkina, Arkaitz Zubiaga and Maria Liakata(参考訳) 本稿では,CLEF 2020 CheckThat!のタスク1におけるQMUL-SDSチームの参加について述べる。 このタスクの目的は、COVID-19に関するツイートのチェックしやすさを判断し、事実確認を必要とするツイートを特定し優先順位付けすることである。 フェイクニュースから国民を守るための継続的な取り組みをさらに支援し、信頼できる情報を見つける手助けをする。 我々は提出した論文の結果を記述し分析する。 数値式で拡張された COVID-Twitter-BERT (CT-BERT) を用いたCNN は,ベースライン結果から性能を効果的に向上させることができることを示す。 また,他の話題に対する噂による学習データ拡張の結果も示す。 当社のベストシステムは、今後の成果改善の可能性を示す成果を奨励するタスクで、第4位にランク付けしています。

This paper describes the participation of the QMUL-SDS team for Task 1 of the CLEF 2020 CheckThat! shared task. The purpose of this task is to determine the check-worthiness of tweets about COVID-19 to identify and prioritise tweets that need fact-checking. The overarching aim is to further support ongoing efforts to protect the public from fake news and help people find reliable information. We describe and analyse the results of our submissions. We show that a CNN using COVID-Twitter-BERT (CT-BERT) enhanced with numeric expressions can effectively boost performance from baseline results. We also show results of training data augmentation with rumours on other topics. Our best system ranked fourth in the task with encouraging outcomes showing potential for improved results in the future.
翻訳日:2022-10-23 12:11:40 公開日:2020-08-30
# SEEC:エッジコンピューティング環境におけるセマンティックベクトルフェデレーション

SEEC: Semantic Vector Federation across Edge Computing Environments ( http://arxiv.org/abs/2008.13298v1 )

ライセンス: Link先を確認
Shalisha Witherspoon, Dean Steuer, Graham Bent, Nirmit Desai(参考訳) 意味ベクトル埋め込み技術は、複数の領域にわたるデータのセマンティック表現の学習に有用であることが証明されている。 このようなテクニックによって実現された重要なアプリケーションは、与えられたデータサンプル間のセマンティックな類似度を測定し、与えられたサンプルと最もよく似たデータを見つける能力である。 最先端の埋め込みアプローチは、すべてのデータが単一のサイトで利用可能であると仮定する。 しかし、多くのビジネス環境では、データは複数のエッジロケーションに分散しており、さまざまな制約のために集約できない。 したがって、最先端の埋め込みアプローチの適用性は、機密性やミッションクリティカルなデータを持つアプリケーションを排除して、自由に共有されるデータセットに限られる。 本稿では, セマンティックベクターの組込みを多種多様な分散環境で学習し, 適用するための新しい教師なしアルゴリズム「emph{SEEC}」を提案する。 具体的には,複数のエッジロケーションが共同学習に関与するシナリオに対して,最近提案する統合学習手法を意味ベクトル埋め込みに適用する。 共同学習が不可能な場合,複数のエッジにまたがるセマンティックなクエリを,それぞれ独自のセマンティックなベクトル空間で実現するための,新しいセマンティックなベクトル変換アルゴリズムを提案する。 自然言語とグラフデータセットの実験結果から、これは有望な新しい方向かもしれない。

Semantic vector embedding techniques have proven useful in learning semantic representations of data across multiple domains. A key application enabled by such techniques is the ability to measure semantic similarity between given data samples and find data most similar to a given sample. State-of-the-art embedding approaches assume all data is available on a single site. However, in many business settings, data is distributed across multiple edge locations and cannot be aggregated due to a variety of constraints. Hence, the applicability of state-of-the-art embedding approaches is limited to freely shared datasets, leaving out applications with sensitive or mission-critical data. This paper addresses this gap by proposing novel unsupervised algorithms called \emph{SEEC} for learning and applying semantic vector embedding in a variety of distributed settings. Specifically, for scenarios where multiple edge locations can engage in joint learning, we adapt the recently proposed federated learning techniques for semantic vector embedding. Where joint learning is not possible, we propose novel semantic vector translation algorithms to enable semantic query across multiple edge locations, each with its own semantic vector-space. Experimental results on natural language as well as graph datasets show that this may be a promising new direction.
翻訳日:2022-10-23 12:11:28 公開日:2020-08-30
# 汎用ビデオゲームにおける転がり軸EAの統計的木系人口分布

Statistical Tree-based Population Seeding for Rolling Horizon EAs in General Video Game Playing ( http://arxiv.org/abs/2008.13253v1 )

ライセンス: Link先を確認
Edgar Galv\'an, Oxana Gorshkova, Peter Mooney, Fred Valdez Ameneyro and Erik Cuevas(参考訳) 近年、複数の人工知能(AI)メソッドが提案され、異なる性質と複雑さを持つ複数のビデオゲームを、それぞれのゲームの特定のメカニズムをAIメソッドに明らかにすることなくプレイするコントローラを作成する。 近年, 転がり地平線機構を用いた進化的アルゴリズム (EA) は, この種の問題に対して異常な結果をもたらした。 しかし、ローリングホライゾンEAにはいくつかの制限があり、AIの大きな課題となっている。 これらの制限には、ゲームエージェントによって実行されるアクションを提案するために、人口を作成し、それをほんの数秒で進化させる無駄なメカニズムが含まれる。 もう一つの制限は、転がり地平線シミュレーション中に特定のエージェントがどのように振る舞うかを知らせるメカニズムを考慮せずに、スカラー値(適合値)を用いて進化的探索を行うことである。 本稿では,これら2つの課題に対処する。 本稿では,後者の制約に対応する統計木の利用について紹介する。 さらに,複数のGeneral Video Game AIコンペティションを支配したMonte Carlo Tree Searchを用いて,人口の一部をシードできるメカニズムを利用することで,従来の制限に対処する。 統計木ベースの個体群シードと呼ばれる新しいメカニズムは,確率ゲーム10ゲームと決定ゲーム10ゲームを含む20種類のゲームにおいて,バニラローリングホライズンeasよりも優れた結果が得られることを示す。

Multiple Artificial Intelligence (AI) methods have been proposed over recent years to create controllers to play multiple video games of different nature and complexity without revealing the specific mechanics of each of these games to the AI methods. In recent years, Evolutionary Algorithms (EAs) employing rolling horizon mechanisms have achieved extraordinary results in these type of problems. However, some limitations are present in Rolling Horizon EAs making it a grand challenge of AI. These limitations include the wasteful mechanism of creating a population and evolving it over a fraction of a second to propose an action to be executed by the game agent. Another limitation is to use a scalar value (fitness value) to direct evolutionary search instead of accounting for a mechanism that informs us how a particular agent behaves during the rolling horizon simulation. In this work, we address both of these issues. We introduce the use of a statistical tree that tackles the latter limitation. Furthermore, we tackle the former limitation by employing a mechanism that allows us to seed part of the population using Monte Carlo Tree Search, a method that has dominated multiple General Video Game AI competitions. We show how the proposed novel mechanism, called Statistical Tree-based Population Seeding, achieves better results compared to vanilla Rolling Horizon EAs in a set of 20 games, including 10 stochastic and 10 deterministic games.
翻訳日:2022-10-23 12:11:07 公開日:2020-08-30
# 機械学習アルゴリズムを用いたモスクスマートドームシステム

Mosques Smart Domes System using Machine Learning Algorithms ( http://arxiv.org/abs/2009.10616v1 )

ライセンス: Link先を確認
Mohammad Awis Al Lababede, Anas H. Blasi, Mohammed A. Alsuwaiket(参考訳) 世界中の何百万ものモスクが、換気や細菌の除去の難しさなどの問題に悩まされており、特にモスクの混雑が大気汚染や細菌の拡散に繋がるラッシュアワーや、不愉快な臭気や祈願時の不快な状態など、ほとんどのモスクでは、モスクをよく換気する十分な窓がない。 本稿では,天気や外気温を利用したスマートモスクドームのモデルを構築し,これらの問題を解決することを目的とする。 k Nearest NeighborsやDecision Treeといった機械学習アルゴリズムを使用して、ドームの開いた状態や閉じた状態を予測する。 この実験はサウジアラビアの預言者モスクで行われ、基本的には手動で動くドームが27基含まれている。 どちらの機械学習アルゴリズムも、異なる評価手法を用いてテストおよび評価を行った。 両アルゴリズムの結果を比較した結果, DTアルゴリズムの精度は98%, kNNアルゴリズムの精度は95%であった。 最後に,本研究の結果は有望であり,すべてのモスクが提案したモデルを用いてドームの自動制御に有効である。

Millions of mosques around the world are suffering some problems such as ventilation and difficulty getting rid of bacteria, especially in rush hours where congestion in mosques leads to air pollution and spread of bacteria, in addition to unpleasant odors and to a state of discomfort during the pray times, where in most mosques there are no enough windows to ventilate the mosque well. This paper aims to solve these problems by building a model of smart mosques domes using weather features and outside temperatures. Machine learning algorithms such as k Nearest Neighbors and Decision Tree were applied to predict the state of the domes open or close. The experiments of this paper were applied on Prophet mosque in Saudi Arabia, which basically contains twenty seven manually moving domes. Both machine learning algorithms were tested and evaluated using different evaluation methods. After comparing the results for both algorithms, DT algorithm was achieved higher accuracy 98% comparing with 95% accuracy for kNN algorithm. Finally, the results of this study were promising and will be helpful for all mosques to use our proposed model for controlling domes automatically.
翻訳日:2022-10-23 12:10:43 公開日:2020-08-30
# 推論攻撃に対するプライバシー保護グラフの埋め込み

Adversarial Privacy Preserving Graph Embedding against Inference Attack ( http://arxiv.org/abs/2008.13072v1 )

ライセンス: Link先を確認
Kaiyang Li, Guangchun Luo, Yang Ye, Wei Li, Shihao Ji, Zhipeng Cai(参考訳) 近年,iot(internet of things, モノのインターネット)やモバイルデバイス,ソーシャルメディアなどの人気が高まっている。 グラフ埋め込みはグラフ構造化データから低次元の特徴表現を学習するのに非常に有用であることが証明されている。 これらの特徴表現は、ノード分類からリンク予測まで、様々な予測タスクに使用できる。 しかし、既存のグラフ埋め込み手法は、推論攻撃を防ぐためのユーザのプライバシーを考慮していない。 すなわち,グラフ埋め込みアルゴリズムから学習したノード表現を解析することにより,ユーザのセンシティブな情報を推測することができる。 本稿では,ユーザの個人情報を学習ノード表現から削除するために,ディスタングとパーシング機構を統合したグラフ会話学習フレームワークであるadversarial privacy graph embedded(apge)を提案する。 提案手法は,ユーザのプライベート属性を推論攻撃から隠蔽しながら,グラフの構造情報とユーティリティ属性を保存する。 実世界のグラフデータセットに関する大規模な実験は、最先端のグラフよりもAPGEの優れた性能を示している。 ソースコードはhttps://github.com/uJ62JHD/Privacy-Preserving-Social-Network-Embeddingにある。

Recently, the surge in popularity of Internet of Things (IoT), mobile devices, social media, etc. has opened up a large source for graph data. Graph embedding has been proved extremely useful to learn low-dimensional feature representations from graph structured data. These feature representations can be used for a variety of prediction tasks from node classification to link prediction. However, existing graph embedding methods do not consider users' privacy to prevent inference attacks. That is, adversaries can infer users' sensitive information by analyzing node representations learned from graph embedding algorithms. In this paper, we propose Adversarial Privacy Graph Embedding (APGE), a graph adversarial training framework that integrates the disentangling and purging mechanisms to remove users' private information from learned node representations. The proposed method preserves the structural information and utility attributes of a graph while concealing users' private attributes from inference attacks. Extensive experiments on real-world graph datasets demonstrate the superior performance of APGE compared to the state-of-the-arts. Our source code can be found at https://github.com/uJ62JHD/Privacy-Preserving-Social-Network-Embedding.
翻訳日:2022-10-23 12:10:23 公開日:2020-08-30
# ソフトウェア欠陥予測のための異なるデータセットに基づく新しい複数アンサンブル学習モデル

A Novel Multiple Ensemble Learning Models Based on Different Datasets for Software Defect Prediction ( http://arxiv.org/abs/2008.13114v1 )

ライセンス: Link先を確認
Ali Nawaz, Attique Ur Rehman, Muhammad Abbas(参考訳) ソフトウェアテストは、ソフトウェアの品質を保証する重要な方法の1つです。 テストコストはプロジェクト全体のコストの50%以上であることがわかった。 効率的で効率的なソフトウェアテストは、ソフトウェアの最小限のリソースを利用する。 したがって、効率的なテストを行うだけでなく、プロジェクトリソースの利用を最小限に抑える手順を構築することが重要である。 ソフトウェアテストの目的は、ソフトウェアシステムの最大の欠陥を見つけることです。 ソフトウェアに含まれる欠陥がより効率的であることを保証するのが、ソフトウェアの欠陥を検出し、リソースを活用し、良い結果を得るために異なる手法が提案されていることだ。 世界は、重要な決定を下すためのデータ駆動アプローチに継続的に移行しています。 そこで本研究では,公開データセットの機械学習解析を行い,その精度を最大化しようと試みた。 論文の主な焦点は、データセットに異なる機械学習技術を適用し、どのテクニックが効率的な結果を生み出すかを見つけることである。 特に,アンサンブル学習モデルを提案し,異なるデータセット上でkn,決定木,svm,na\"ive bayesの比較分析を行い,精度,精度,リコール,f1-scoreの点で,アンサンブル法の性能が他の手法よりも優れていることを実証した。 CM1で訓練されたアンサンブルモデルの分類精度は98.56%、KM2で訓練されたアンサンブルモデルの分類精度は98.18%、PC1で訓練されたアンサンブル学習モデルの分類精度は99.27%である。 これは、Ensembleが欠陥予測を他の手法と比較するより効率的な方法であることを示している。

Software testing is one of the important ways to ensure the quality of software. It is found that testing cost more than 50% of overall project cost. Effective and efficient software testing utilizes the minimum resources of software. Therefore, it is important to construct the procedure which is not only able to perform the efficient testing but also minimizes the utilization of project resources. The goal of software testing is to find maximum defects in the software system. More the defects found in the software ensure more efficiency is the software testing Different techniques have been proposed to detect the defects in software and to utilize the resources and achieve good results. As world is continuously moving toward data driven approach for making important decision. Therefore, in this research paper we performed the machine learning analysis on the publicly available datasets and tried to achieve the maximum accuracy. The major focus of the paper is to apply different machine learning techniques on the datasets and find out which technique produce efficient result. Particularly, we proposed an ensemble learning models and perform comparative analysis among KNN, Decision tree, SVM and Na\"ive Bayes on different datasets and it is demonstrated that performance of Ensemble method is more than other methods in term of accuracy, precision, recall and F1-score. The classification accuracy of ensemble model trained on CM1 is 98.56%, classification accuracy of ensemble model trained on KM2 is 98.18% similarly, the classification accuracy of ensemble learning model trained on PC1 is 99.27%. This reveals that Ensemble is more efficient method for making the defect prediction as compared other techniques.
翻訳日:2022-10-23 12:09:39 公開日:2020-08-30
# ニューロモルフィック形状フィルタの設計に関する進化的視点

An evolutionary perspective on the design of neuromorphic shape filters ( http://arxiv.org/abs/2008.13229v1 )

ライセンス: Link先を確認
Ernest Greene(参考訳) かなりの時間とエネルギーがconnectionist(neural network)の原則を用いたマシンビジョンの開発に費やされている。 その研究のほとんどは、神経科学者や行動学者によって、皮質系が刺激情報をどのように保存するかという理論に触発されている。 これらの理論は複数のニューロン集団間の接続を通して情報の流れを求めており、最初の接続はランダム(または少なくとも非機能的)である。 次に、接続の強さや位置をトレーニングの試行を通じて変更し、オブジェクトを識別する機能などの効果的な出力を達成する。 これらの理論は、大脳皮質を持たない動物(例えば魚)が、最良のニューラルネットワークモデルを上回る視覚能力を示すことができるという事実を無視した。 瞬時に効果的な視覚と迅速な学習を可能にする神経回路は、数億年にわたる進化によって事前にプログラムされ、ハッチ後すぐに視覚スキルが利用できるようになった。 皮質系は高度な画像処理を提供するかもしれないが、おそらくはより単純なシステムで有効な設計原則を使用している。 本稿では, 生体視覚のメカニズムに適合する形状符号化回路の設計に寄与し得ることを期待して, 形状情報の登録のための網膜および皮質機構について概説する。

A substantial amount of time and energy has been invested to develop machine vision using connectionist (neural network) principles. Most of that work has been inspired by theories advanced by neuroscientists and behaviorists for how cortical systems store stimulus information. Those theories call for information flow through connections among several neuron populations, with the initial connections being random (or at least non-functional). Then the strength or location of connections are modified through training trials to achieve an effective output, such as the ability to identify an object. Those theories ignored the fact that animals that have no cortex, e.g., fish, can demonstrate visual skills that outpace the best neural network models. Neural circuits that allow for immediate effective vision and quick learning have been preprogrammed by hundreds of millions of years of evolution and the visual skills are available shortly after hatching. Cortical systems may be providing advanced image processing, but most likely are using design principles that had been proven effective in simpler systems. The present article provides a brief overview of retinal and cortical mechanisms for registering shape information, with the hope that it might contribute to the design of shape-encoding circuits that more closely match the mechanisms of biological vision.
翻訳日:2022-10-23 12:03:09 公開日:2020-08-30
# 対物フェアネスのための逆学習

Adversarial Learning for Counterfactual Fairness ( http://arxiv.org/abs/2008.13122v1 )

ライセンス: Link先を確認
Vincent Grari, Sylvain Lamprier, Marcin Detyniecki(参考訳) 近年,機械学習研究コミュニティでは,公平性が重要な話題となっている。 特に、反事実公平性は、最も個々のレベルで公平性を保証する予測モデルの構築を目標としている。 グローバルに人口全体に対する公平性を考えるのではなく、例えば性別や人種など、特定の利害の属性のバリエーションで、どんな個人がどう見えるかを想像する、という考え方だ。 既存のアプローチは個人の変分自己エンコーディングに依存しており、最大平均離散性(MMD)ペナル化を用いて、推論された表現の統計的依存を対応する感度属性で制限している。 これにより、ターゲットフェアモデルのトレーニングに使用される対実的なサンプルのシミュレーションが可能になる。 本研究では,MDDの罰則よりも強力な推論が可能であり,重要な属性の値を総和的に列挙できないような連続的な設定に特に適した,敵対的ニューラルネットワークアプローチを提案する。 実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。

In recent years, fairness has become an important topic in the machine learning research community. In particular, counterfactual fairness aims at building prediction models which ensure fairness at the most individual level. Rather than globally considering equity over the entire population, the idea is to imagine what any individual would look like with a variation of a given attribute of interest, such as a different gender or race for instance. Existing approaches rely on Variational Auto-encoding of individuals, using Maximum Mean Discrepancy (MMD) penalization to limit the statistical dependence of inferred representations with their corresponding sensitive attributes. This enables the simulation of counterfactual samples used for training the target fair model, the goal being to produce similar outcomes for every alternate version of any individual. In this work, we propose to rely on an adversarial neural learning approach, that enables more powerful inference than with MMD penalties, and is particularly better fitted for the continuous setting, where values of sensitive attributes cannot be exhaustively enumerated. Experiments show significant improvements in term of counterfactual fairness for both the discrete and the continuous settings.
翻訳日:2022-10-23 12:02:51 公開日:2020-08-30
# 時系列データに対する敵攻撃と防御のベンチマーク

Benchmarking adversarial attacks and defenses for time-series data ( http://arxiv.org/abs/2008.13261v1 )

ライセンス: Link先を確認
Shoaib Ahmed Siddiqui, Andreas Dengel, Sheraz Ahmed(参考訳) ディープネットワークの敵対的脆弱性は、世界中の研究者の関心を惹きつけている。 当然ながら、画像のように、敵対的な例は、モダリティよりもモデル自体固有の弱点であるため、時系列データにも変換される。 これらの敵対的な攻撃、特に視覚モダリティに対する防御の試みがいくつか行われている。 本稿では,時系列データを用いた防御手法の詳細なベンチマークを行う。 私たちは、$l_{\infty}$脅威モデルに制限します。 私たちはまた、正規化ベースの防御における滑らかさとクリーンな正確さのトレードオフを探求し、彼らが提供するトレードオフをよりよく理解します。 分析の結果,探索した敵の防御力は強い白箱攻撃とブラックボックス攻撃の両方に対して堅牢であることがわかった。 これは、特に時系列データに対する敵の攻撃と防御の方向における将来の研究への道を開く。

The adversarial vulnerability of deep networks has spurred the interest of researchers worldwide. Unsurprisingly, like images, adversarial examples also translate to time-series data as they are an inherent weakness of the model itself rather than the modality. Several attempts have been made to defend against these adversarial attacks, particularly for the visual modality. In this paper, we perform detailed benchmarking of well-proven adversarial defense methodologies on time-series data. We restrict ourselves to the $L_{\infty}$ threat model. We also explore the trade-off between smoothness and clean accuracy for regularization-based defenses to better understand the trade-offs that they offer. Our analysis shows that the explored adversarial defenses offer robustness against both strong white-box as well as black-box attacks. This paves the way for future research in the direction of adversarial attacks and defenses, particularly for time-series data.
翻訳日:2022-10-23 12:02:33 公開日:2020-08-30
# データ駆動型強化学習システムのためのHuman-in-the-Loop法

Human-in-the-Loop Methods for Data-Driven and Reinforcement Learning Systems ( http://arxiv.org/abs/2008.13221v1 )

ライセンス: Link先を確認
Vinicius G. Goecks(参考訳) 最近の成功は強化学習アルゴリズムとディープニューラルネットワークを組み合わせているが、強化学習はロボティクスや現実世界のシナリオに広く適用されていない。 これは、現在の最先端のエンドツーエンドの強化学習アプローチでは、満足のいく方針に収束するために数千、数百万のデータサンプルが必要であり、トレーニング中に破滅的な失敗を被るという事実に起因している。 逆に、現実のシナリオやほんの数回のデータサンプルの後では、人間はタスクのデモンストレーションを提供するか、破滅的な行動を防ぐために介入するか、ポリシーが正しく機能しているかどうかを単純に評価できる。 本研究は,ロボット工学および実世界のシナリオにおいて,これらの人的相互作用を強化学習ループに統合し,サンプル効率を高め,リアルタイム強化学習を可能にする方法について検討する。 この理論の基礎は「Cycle-of-Learning(学習のサイクル)」と呼ばれ、人間の相互作用の異なるモダリティ、すなわちタスクのデモンストレーション、介入、評価が、どのようにサイクル化され、強化学習アルゴリズムと組み合わせられるかを示す。 その結果,人間インタラクションに基づいて学習される報酬信号は強化学習アルゴリズムの学習速度を加速し,従来の教師付き学習アルゴリズムと比較して,人間のデモンストレーションと介入の組み合わせによる学習はより高速かつ効率的にサンプル化できることがわかった。 最後に、Cycle-of-Learningは、人間の実証から学んだポリシーと強化学習への介入の効果的な移行を開発する。 この研究によって開発された理論的基礎は、自律エージェントが人間のチームメイトから学び、リアルタイムおよび現実世界のシナリオでミッションパフォーマンスのメトリクスに適応できる、ヒューマンエージェントのチームシナリオへの新たな研究パスを開く。

Recent successes combine reinforcement learning algorithms and deep neural networks, despite reinforcement learning not being widely applied to robotics and real world scenarios. This can be attributed to the fact that current state-of-the-art, end-to-end reinforcement learning approaches still require thousands or millions of data samples to converge to a satisfactory policy and are subject to catastrophic failures during training. Conversely, in real world scenarios and after just a few data samples, humans are able to either provide demonstrations of the task, intervene to prevent catastrophic actions, or simply evaluate if the policy is performing correctly. This research investigates how to integrate these human interaction modalities to the reinforcement learning loop, increasing sample efficiency and enabling real-time reinforcement learning in robotics and real world scenarios. This novel theoretical foundation is called Cycle-of-Learning, a reference to how different human interaction modalities, namely, task demonstration, intervention, and evaluation, are cycled and combined to reinforcement learning algorithms. Results presented in this work show that the reward signal that is learned based upon human interaction accelerates the rate of learning of reinforcement learning algorithms and that learning from a combination of human demonstrations and interventions is faster and more sample efficient when compared to traditional supervised learning algorithms. Finally, Cycle-of-Learning develops an effective transition between policies learned using human demonstrations and interventions to reinforcement learning. The theoretical foundation developed by this research opens new research paths to human-agent teaming scenarios where autonomous agents are able to learn from human teammates and adapt to mission performance metrics in real-time and in real world scenarios.
翻訳日:2022-10-23 12:02:19 公開日:2020-08-30
# solar: 疎直交学習とランダム埋め込み

SOLAR: Sparse Orthogonal Learned and Random Embeddings ( http://arxiv.org/abs/2008.13225v1 )

ライセンス: Link先を確認
Tharun Medini, Beidi Chen, Anshumali Shrivastava(参考訳) デンス埋め込みモデルは、一般に商用検索エンジンにデプロイされ、すべてのドキュメントベクトルを事前計算し、クエリベクターで近隣探索(NNS)を行い、関連するドキュメントを見つける。 しかし、大量の高密度ベクトルをインデックス化し、NSを実行するというボトルネックは、これらのモデルのクエリ時間と精度を損なう。 本稿では,高次元および超スパース埋め込みが,クエリ効率と精度の両面において,高密度低次元埋め込みよりもはるかに優れていることを論じる。 極端に疎かさは、単純なルックアップに置き換えることによるNNSの必要性を排除し、その高次元性により、埋め込みがスパースであっても情報的であることが保証される。 しかし、非常に高次元の埋め込みを学ぶとモデルのサイズが爆発する。 トレーニングを実現するために,複数のGPU間の高次元埋め込みを通信なしで学習するパーティショニングアルゴリズムを提案する。 これは、Sparse, Orthogonal, Learned and Random (SOLAR) Embeddingsという非対称な混合物によって促進される。 ラベルベクトルはランダムであり、スパースであり、設計により直交に近いが、クエリベクトルは学習されスパースである。 理論的には、一方的な学習の方法は、クエリとラベルの埋め込みの両方を学ぶことと等価である。 これらのユニークな特性により、1.6万冊の書籍を検索し、3つの大きな公開データセットの多ラベル分類を行うタスクに対して、500K次元のSOLAR埋め込みをトレーニングできる。 それぞれのタスクに対して,最大10倍の高速さで,各タスクの最先端のベースラインと比較して,精度とリコールの精度が向上する。

Dense embedding models are commonly deployed in commercial search engines, wherein all the document vectors are pre-computed, and near-neighbor search (NNS) is performed with the query vector to find relevant documents. However, the bottleneck of indexing a large number of dense vectors and performing an NNS hurts the query time and accuracy of these models. In this paper, we argue that high-dimensional and ultra-sparse embedding is a significantly superior alternative to dense low-dimensional embedding for both query efficiency and accuracy. Extreme sparsity eliminates the need for NNS by replacing them with simple lookups, while its high dimensionality ensures that the embeddings are informative even when sparse. However, learning extremely high dimensional embeddings leads to blow up in the model size. To make the training feasible, we propose a partitioning algorithm that learns such high dimensional embeddings across multiple GPUs without any communication. This is facilitated by our novel asymmetric mixture of Sparse, Orthogonal, Learned and Random (SOLAR) Embeddings. The label vectors are random, sparse, and near-orthogonal by design, while the query vectors are learned and sparse. We theoretically prove that our way of one-sided learning is equivalent to learning both query and label embeddings. With these unique properties, we can successfully train 500K dimensional SOLAR embeddings for the tasks of searching through 1.6M books and multi-label classification on the three largest public datasets. We achieve superior precision and recall compared to the respective state-of-the-art baselines for each of the tasks with up to 10 times faster speed.
翻訳日:2022-10-23 12:01:48 公開日:2020-08-30
# SemEval-2020 Task 9: Recurrent Convolutional Neural Network for Code-mixed Sentiment Analysis

LIMSI_UPV at SemEval-2020 Task 9: Recurrent Convolutional Neural Network for Code-mixed Sentiment Analysis ( http://arxiv.org/abs/2008.13173v1 )

ライセンス: Link先を確認
Somnath Banerjee, Sahar Ghannay, Sophie Rosset, Anne Vilnat and Paolo Rosso(参考訳) 本稿では,SemEval-2020 Task 9: Sentiment Analysis for Code-Mixed Social Media TextにおけるLIMSI UPVチームの参加について述べる。 提案手法はSentiMix Hindi- English subtaskで競合し、Hindi- English code-mixedTweetの感情を予測する問題に対処した。 本稿では,繰り返しニューラルネットワークと畳み込みニューラルネットワークを組み合わせることで,テキストの意味をよりよく把握し,コード混合感情分析を行う。 提案システムは,与えられたテストデータに対するF1スコアから0.69(ベストラン)を獲得し,SentiMix Hindi- English subtaskで9位(Codalab username: somban)を達成した。

This paper describes the participation of LIMSI UPV team in SemEval-2020 Task 9: Sentiment Analysis for Code-Mixed Social Media Text. The proposed approach competed in SentiMix Hindi-English subtask, that addresses the problem of predicting the sentiment of a given Hindi-English code-mixed tweet. We propose Recurrent Convolutional Neural Network that combines both the recurrent neural network and the convolutional network to better capture the semantics of the text, for code-mixed sentiment analysis. The proposed system obtained 0.69 (best run) in terms of F1 score on the given test data and achieved the 9th place (Codalab username: somban) in the SentiMix Hindi-English subtask.
翻訳日:2022-10-23 12:01:04 公開日:2020-08-30
# ニューラルネットワーク展開におけるバッチ正規化のための最適量子化

Optimal Quantization for Batch Normalization in Neural Network Deployments and Beyond ( http://arxiv.org/abs/2008.13128v1 )

ライセンス: Link先を確認
Dachao Lin, Peiqin Sun, Guangzeng Xie, Shuchang Zhou, Zhihua Zhang(参考訳) 量子ニューラルネットワーク(QNN)は、ウェイトパラメータとアクティベーションを表すために低ビット幅の固定点数を使用し、計算資源の節約と結果の再現性のために、現実世界のアプリケーションでよく使用される。 バッチ正規化(BN)は、相互運用において浮動小数点を必要とするQNNにとって課題であり、以前のQNNでは、高精度でBNを計算するか、ヒューリスティックな方法でBNを修正する必要がある。 本研究では,2つの浮動小数点のアフィン変換を,ハードウェアアクセラレーションやモデル展開に適した共有量子化スケールで固定点演算に変換することにより,BNを定量化する手法を提案する。 本手法は,厳密な理論解析と数値解析により,同じ出力を維持できることを確認した。 本手法の精度と効率は,CIFARおよびImageNetデータセット上の層レベルでの実験により検証した。 また,本手法は量子化に関わる他の問題にも有用であると考えられた。

Quantized Neural Networks (QNNs) use low bit-width fixed-point numbers for representing weight parameters and activations, and are often used in real-world applications due to their saving of computation resources and reproducibility of results. Batch Normalization (BN) poses a challenge for QNNs for requiring floating points in reciprocal operations, and previous QNNs either require computing BN at high precision or revise BN to some variants in heuristic ways. In this work, we propose a novel method to quantize BN by converting an affine transformation of two floating points to a fixed-point operation with shared quantized scale, which is friendly for hardware acceleration and model deployment. We confirm that our method maintains same outputs through rigorous theoretical analysis and numerical analysis. Accuracy and efficiency of our quantization method are verified by experiments at layer level on CIFAR and ImageNet datasets. We also believe that our method is potentially useful in other problems involving quantization.
翻訳日:2022-10-23 12:00:47 公開日:2020-08-30
# MementoML: OpenML100データセット上の選択された機械学習アルゴリズム構成のパフォーマンス

MementoML: Performance of selected machine learning algorithm configurations on OpenML100 datasets ( http://arxiv.org/abs/2008.13162v1 )

ライセンス: Link先を確認
Wojciech Kretowicz, Przemys{\l}aw Biecek(参考訳) 機械学習アルゴリズムの最適ハイパーパラメータを見つけることは、しばしばその性能を著しく向上させる。 しかし、どのようにして時間効率の良い方法を選ぶのか? 本稿では,ハイパーパラメータ構成が異なる異なるmlアルゴリズムの性能を記述するベンチマークデータを生成するプロトコルを提案する。 この方法で収集されたデータは、アルゴリズムのパフォーマンスに影響を与える要因を研究するために使用される。 このコレクションはEPP研究で示された研究のために準備された。 ハイパーパラメータの高密度グリッド上でのアルゴリズム性能を検証した。 テストデータセットとハイパーパラメータは、アルゴリズムの実行前に選択され、変更されなかった。 これは、通常ハイパーパラメータチューニングで使用されるものとは異なるアプローチであり、候補のハイパーパラメータの選択は以前に得られた結果に依存する。 しかし、このような選択は個々のハイパーパラメータのパフォーマンス感度を体系的に解析することができる。 この結果、私たちが共有したいベンチマークの包括的なデータセットが生まれました。 計算され、収集された結果が、他の研究者にとって役立つことを願っている。 本稿では,データの収集方法について述べる。 39のopenmlデータセット上で人気のある7つの機械学習アルゴリズムのベンチマークを見ることができる。 このベンチマークを構成する詳細なデータは、https://www.kaggle.com/mi2datalab/mementoml.com/で入手できる。

Finding optimal hyperparameters for the machine learning algorithm can often significantly improve its performance. But how to choose them in a time-efficient way? In this paper we present the protocol of generating benchmark data describing the performance of different ML algorithms with different hyperparameter configurations. Data collected in this way is used to study the factors influencing the algorithm's performance. This collection was prepared for the purposes of the study presented in the EPP study. We tested algorithms performance on dense grid of hyperparameters. Tested datasets and hyperparameters were chosen before any algorithm has run and were not changed. This is a different approach than the one usually used in hyperparameter tuning, where the selection of candidate hyperparameters depends on the results obtained previously. However, such selection allows for systematic analysis of performance sensitivity from individual hyperparameters. This resulted in a comprehensive dataset of such benchmarks that we would like to share. We hope, that computed and collected result may be helpful for other researchers. This paper describes the way data was collected. Here you can find benchmarks of 7 popular machine learning algorithms on 39 OpenML datasets. The detailed data forming this benchmark are available at: https://www.kaggle.com/mi2datalab/mementoml.
翻訳日:2022-10-23 12:00:31 公開日:2020-08-30