論文の概要、ライセンス

# (参考訳) 協調学習確率的u-netによる空中超音波を用いた可視・視認性:プライバシーを意識した人間の分節化 [全文訳有]

Invisible-to-Visible : Privacy-Aware Human Segmentation using Airborne Ultrasound via Collaborative Learning Probabilistic U-Net ( http://arxiv.org/abs/2205.05293v1 )

ライセンス: CC BY 4.0
Risako Tanigawa, Yasunori Ishii, Kazuki Kozuka and Takayoshi Yamashita(参考訳) カラー画像は視覚的に容易に理解でき、色やテクスチャといった多くの情報を得ることができる。 セグメンテーションなどのタスクで、高度に広く使われている。 一方,屋内の個人セグメンテーションでは,プライバシを考慮した個人データを収集する必要がある。 本研究では,見えない情報,特に空中超音波による人体セグメンテーションのための新しい課題を提案する。 まず、超音波を反射型超音波指向性画像(ultrasound image)に変換し、目に見えない情報からセグメンテーションを行う。 超音波画像は人の位置を大まかに識別できるが、詳細な形状は曖昧である。 そこで本研究では,超音波とセグメント画像を同時に使用し,潜在空間のパラメータを比較することで超音波とセグメント画像の確率分布を閉じる協調学習確率的u-netを提案する。 推論では、超音波画像のみを使用してセグメント化結果を得ることができる。 性能検証の結果,提案手法は従来の確率的u-netや他の変分オートエンコーダモデルよりも高精度に人間のセグメンテーションを推定できた。

Color images are easy to understand visually and can acquire a great deal of information, such as color and texture. They are highly and widely used in tasks such as segmentation. On the other hand, in indoor person segmentation, it is necessary to collect person data considering privacy. We propose a new task for human segmentation from invisible information, especially airborne ultrasound. We first convert ultrasound waves to reflected ultrasound directional images (ultrasound images) to perform segmentation from invisible information. Although ultrasound images can roughly identify a person's location, the detailed shape is ambiguous. To address this problem, we propose a collaborative learning probabilistic U-Net that uses ultrasound and segmentation images simultaneously during training, closing the probabilistic distributions between ultrasound and segmentation images by comparing the parameters of the latent spaces. In inference, only ultrasound images can be used to obtain segmentation results. As a result of performance verification, the proposed method could estimate human segmentations more accurately than conventional probabilistic U-Net and other variational autoencoder models.
公開日: Wed, 11 May 2022 06:42:24 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 1 1 2 2 0 2 y a m 1 1 である。 0.54
] V C . s c [ ] 略称はC。 sc [ 0.39
1 v 3 9 2 5 0 1 v 3 9 2 5 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Invisible-to-Visible : Privacy-Aware Human Segmentation using Airborne Invisible-to-Visible :Airborneを用いたプライバシーに配慮した人間のセグメンテーション 0.44
Ultrasound via Collaborative Learning Probabilistic U-Net 協調学習確率的U-Netによる超音波 0.56
Risako Tanigawa *,1, Yasunori Ishii †,1, Kazuki Kozuka ‡,1, and Takayoshi Yamashita §,2 谷川立子※,1,石井安則~1,葛城小塚~1,山下孝義~2 0.59
1Technology Division, Panasonic Holdings Corporation パナソニックホールディングス1技術部 0.49
2Machine Perception and Robotics Group, Chubu University 中部大学 機械知覚・ロボティクスグループ 0.50
Abstract Color images are easy to understand visually and can acquire a great deal of information, such as color and texture. 概要 カラー画像は視覚的に容易に理解でき、色やテクスチャといった多くの情報を得ることができる。 0.66
They are highly and widely used in tasks such as segmentation. セグメンテーションなどのタスクで、高度に広く使われている。 0.57
On the other hand, in indoor person segmentation, it is necessary to collect person data considering privacy. 一方,屋内の個人セグメンテーションでは,プライバシを考慮した個人データを収集する必要がある。 0.82
We propose a new task for human segmentation from invisible information, especially airborne ultrasound. 本研究では,見えない情報,特に空中超音波による人体セグメンテーションのための新しい課題を提案する。 0.58
We first convert ultrasound waves to reflected ultrasound directional images (ultrasound images) to perform segmentation from invisible information. まず、超音波を反射型超音波指向性画像(ultrasound image)に変換し、目に見えない情報からセグメンテーションを行う。 0.63
Although ultrasound images can roughly identify a person’s location, the detailed shape is ambiguous. 超音波画像は人の位置を大まかに識別できるが、詳細な形状は曖昧である。 0.78
To address this problem, we propose a collaborative learning probabilistic U-Net that uses ultrasound and segmentation images simultaneously during training, closing the probabilistic distributions between ultrasound and segmentation images by comparing the parameters of the latent spaces. そこで本研究では,超音波とセグメント画像を同時に使用し,潜在空間のパラメータを比較することで超音波とセグメント画像の確率分布を閉じる協調学習確率的u-netを提案する。 0.87
In inference, only ultrasound images can be used to obtain segmentation results. 推論では、超音波画像のみを使用してセグメント化結果を得ることができる。 0.64
As a result of performance verification, the proposed method could estimate human segmentations more accurately than conventional probabilistic U-Net and other variational autoencoder models. 性能検証の結果,提案手法は従来の確率的u-netや他の変分オートエンコーダモデルよりも高精度に人間のセグメンテーションを推定できた。 0.72
1. Introduction Segmentation has attracted wide attention because of its applications, such as medical image diagnoses, robotics, and action recognition [5,18,24,26,31,34]. はじめに セグメンテーションは、医療画像診断、ロボティクス、アクション認識[5,18,24,26,31,34]などの応用により、広く注目を集めている。
訳抜け防止モード: はじめに セグメンテーションは医用画像診断などの用途で広く注目を集めている。 ロボット工学とアクション認識 [5,18,24,26,31,34]
0.53
A camera is a well-developed sensor for segmentation tasks. カメラはセグメンテーションタスクのためのよく開発されたセンサーである。 0.62
Although camera-based segmentation has been widely investigated and achieved high precision, camera images do not preserve privacy for human segmentation. カメラによるセグメンテーションは広く研究され、精度は高いが、カメラ画像は人間のセグメンテーションのプライバシーを保っていない。 0.68
Audio signals is a privacy-preserved segmentation [12, 16, 20, 27, 28, 33]. オーディオ信号はプライバシに保存されたセグメント(12,16,20,27,28,33)です。 0.72
Predicting depth maps and segmentations from audio signals have been proposed [12,28]. 音声信号からの深度マップとセグメントの予測 [12,28] が提案されている。 0.71
These methods can generate images from invisible physical information and can be used to recognize human actions by analyzing segmentation images. これらの方法は、見えない物理的情報から画像を生成することができ、セグメンテーション画像を分析して人間の行動を認識するのに使用できる。 0.59
Although these methods can visualize sounding objects, detecting non-sounding objects are difficult. これらの手法は聴覚物体を可視化することができるが、非聴覚物体の検出は困難である。 0.49
From the human recognition standpoint, people who do not make sounds, such as not talking or walking, cannot be detected. 人間の認識の観点からは、しゃべったり歩いたりしないような音をしない人は検出できない。 0.69
Airborne ultrasound echoes could be used to detect non-sounding people. 空中超音波エコーは、無音の人々を検出するのに使うことができる。 0.52
There are methods for detecting the surrounding information by analyzing ultrasound echoes [4, 8, 11, 17, 21, 22, 32]. 超音波エコー[4,8,11,17,21,22,32]を分析して周囲の情報を検出する方法がある。 0.76
Although these methods can estimate the position of objects, methods that specialize in human recognition and estimate human segmentation have not been well investigated. これらの手法は物体の位置を推定できるが、人間の認識と人間のセグメンテーションを専門とする手法は十分に研究されていない。 0.65
If human segmentation can be estimated from echoes, it would be possible to detect non-sounding people and it can be used to estimate human action. エコーから人間のセグメンテーションを推定できれば、非音の人を検出することができ、人間の行動を推定することができる。 0.71
In this study, we propose a method for estimating human segmentation from airborne ultrasound detected by multichannel microphones using a neural network. 本研究では,ニューラルネットワークを用いたマルチチャネルマイクロホンによって検出された空中超音波による人間のセグメンテーション推定手法を提案する。 0.77
The concept of our work is illustrated in Figure 1. 私たちの研究のコンセプトを図1に示します。 0.73
In the sensing section, an ultrasonic transducer at 62 kHz resonance, and 16 channels of microelectromechanic al system (MEMS) microphone array are used. センサ部では、62kHz共鳴の超音波トランスデューサと、マイクロエレクトロメカニカルシステム(MEMS)マイクロホンアレイの16チャンネルを使用する。 0.77
The ultrasound emitted by the ultrasonic transducer is reflected by a human body and then captured by microphones. 超音波トランスデューサから放出される超音波は人体に反射され、マイクによって捕捉される。 0.74
The *tanigawa.risako@jp. panasonic.com †ishii.yasunori@jp.pa nasonic.com ‡kozuka.kazuki@jp.pan asonic.com §takayoshi@isc.chubu. ac.jp その... ※谷川.risako@jp.panasonic .com ジシイ・ヤサノリ@jp.panasonic.com ジコカセ@カズキ@jp.panasonic.com ジタカヨシ@isc.chubu.ac.jp 0.31
1 1 0.43
英語(論文から抽出)日本語訳スコア
Figure 1. Concept of our work. 図1に示す。 私たちの仕事のコンセプトです 0.66
The top row shows the setting of a sensing environment. 一番上の列はセンシング環境の設定を示しています。 0.72
The bottom row illustrates the concept of our method. 下の行はメソッドの概念を示しています。 0.64
reflected ultrasound directional images (hereinafter, ultrasound images) can be obtained by analyzing the differences between multichannel ultrasound signals. 多チャンネル超音波信号間の差を分析して反射超音波方向画像(以下、超音波画像)を得ることができる。 0.72
Because the ultrasound image represents the intensity of the reflected wave at each pixel, it has ambiguous shapes that are far from humans. 超音波画像は各画素の反射波の強度を表しているため、人間とは程遠いあいまいな形状をしている。 0.76
Therefore, we introduce a deep neural network to obtain human segmentation images from ultrasound images. そこで,超音波画像から人間のセグメンテーション画像を得るための深層ニューラルネットワークを提案する。 0.78
We use probabilistic models for the task because the ultrasound images have different edge positions from segmentation images. 超音波画像はセグメンテーション画像と異なるエッジ位置を持つため,タスクの確率モデルを用いている。 0.76
Kohl et al [15] proposed a probabilistic U-Net that combines variational autoencoder (VAE) [14] and U-Net [25]. Kohlら[15]は可変オートエンコーダ(VAE)[14]とU-Net[25]を組み合わせた確率的U-Netを提案した。 0.76
During the training phase, the probabilistic U-Net learns a network to match latent spaces of input and the input/ground truth by comparing the latent spaces with Kullback-Leibler divergence (KLD). トレーニングフェーズ中、確率的u-netは、潜在空間とkullback-leibler divergence(kld)を比較することにより、入力の潜在空間と入力/接地真理とをマッチングするネットワークを学習する。
訳抜け防止モード: 学習期間中に確率的U-Netがネットワークを学習する 入力空間と入力/接地真実を一致させる 潜在空間をKullback-Leibler divergence (KLD) と比較する。
0.84
A latent vector, sampled from the latent space of input/ground truth, combined with the last activation map of a U-Net. 潜時ベクトルは、入力/地上真理の潜時空間からサンプリングされ、U-Netの最後の活性化マップと組み合わせられる。 0.69
The spatial positions of the ultrasound and segmentation images are similar and the edges are different. 超音波画像とセグメンテーション画像の空間的位置は似ており、エッジが異なる。 0.70
Hence, the latent distributions of ultrasound and segmentation images are roughly close because of shrinking the spatial dimensions by convolutions. したがって、超音波とセグメンテーション画像の潜伏分布は、畳み込みによる空間次元の縮小のため、ほぼ近い。 0.70
Thus, reducing the distance between latent distributions with precisely estimating the edges is difficult. したがって、エッジを正確に推定して潜伏分布間の距離を減らすことは困難である。 0.66
Therefore, we propose a collaborative learning probabilistic U-Net (CLPU-Net), which uses mean squared error (MSE) instead of KLD to minimize the distance between latent distributions. そこで我々は,KLDの代わりに平均二乗誤差(MSE)を用いて,潜在分布間の距離を最小化する協調学習確率U-Net(CLPU-Net)を提案する。 0.72
Experiments showed that human segmentation images could be generated from ultrasound images. 実験の結果、超音波画像から人間のセグメンテーション画像を生成することができた。 0.64
To the best of our knowledge, this is the first work to estimate human segmentation images from airborne ultrasounds. 我々の知る限り、これは空中超音波からヒトのセグメンテーション画像を推定する最初の試みである。 0.73
The main contributions to this work are as follows: この作品の主な貢献は次のとおりである。 0.81
• A human body sensing system using an airborne ultrasound and a microphone array for privacy-aware human segmen- •空中超音波とマイクロホンアレイを用いた人体センシングシステム-プライバシーを意識した人間のセグメン- 0.79
tation. • An architecture of CLPU-Net that learns a network with matching latent variables from segmentation and ultrasound テイション •セグメンテーションと超音波から潜在変数に対応するネットワークを学習するCLPU-Netのアーキテクチャ 0.64
images. • We showed that despite a simple mean-squared error, the distance between latent variables can be shortened by ex- 画像。 •単純な平均二乗誤差にもかかわらず、潜在変数間の距離をexで短縮できることを示した。 0.69
pressing the distribution of high-dimensional latent space with mean and variance. 平均と分散を伴う高次元ラテント空間の分布を押すこと。 0.74
2. Related work 2.1. 2.関連作業 2.1 0.90
Privacy-preserved human segmentation プライバシー保護ヒトセグメンテーション 0.76
The camera-based methods have been well investigated and have achieved high accuracy. カメラベースの手法はよく研究されており、精度が高い。 0.70
However, privacy concerns should be considered for applications such as home surveillance. しかし、ホーム監視などのアプリケーションにはプライバシー上の懸念が考慮されるべきである。 0.62
Cameraless human segmentation methods have also been investigated to address privacy issues. カメラレスの人間のセグメンテーション手法も、プライバシー問題に対処するために研究されている。 0.52
Wang et al [29] proposed a method for estimating human segmentation images, joint heatmaps, and part affinity fields using Wi-Fi signals. Wang et al [29] は Wi-Fi 信号を用いた人間のセグメンテーション画像, ジョイントヒートマップ, 部分親和性フィールドの推定手法を提案した。 0.70
They used three transmitting-receivi ng antenna pairs and thirty electromagnetic frequencies with five sequential samples. 彼らは3つの送信受信アンテナペアと30の電磁周波数を5つのシーケンシャルサンプルで使用した。 0.55
The channel state information [9] was analyzed to input networks. チャネル状態情報[9]を入力ネットワークに解析した。 0.76
The networks comprise upsampling blocks, residual convolutional blocks, U-Net, and downsampling blocks. ネットワークはアップサンプリングブロック、残留畳み込みブロック、u-net、ダウンサンプリングブロックで構成される。 0.60
Although this method achieved privacy-friendly fine-grained person perception with Wi-Fi antennas and routers, the Wi-Fi signals are highly affected by the surrounding environment due to the multipath effect. この方法は、Wi-Fiアンテナやルータによるプライバシーに配慮した微粒な人物認識を実現するが、マルチパス効果により周囲環境の影響を強く受けている。 0.73
2 2 0.42
英語(論文から抽出)日本語訳スコア
Alonso et al [1] proposed an event camera-based semantic segmentation method. Alonso et al [1] はイベントカメラに基づくセマンティックセマンティックセグメンテーション法を提案した。 0.71
The event camera detects pixel information when the brightness changes, such as when the subject moves. イベントカメラは、被写体が動くときなどの明るさが変化したときの画素情報を検出する。 0.70
They do not capture personal information more clearly than the RGB cameras because event cameras only capture changes in intensities on a pixel-by-pixel basis. イベントカメラはピクセル単位での強度の変化のみを捉えているため、RGBカメラよりも明確な個人情報をキャプチャしない。 0.80
In [1], event information from event cameras was formed as 6-channel images. [1]では,イベントカメラからのイベント情報を6チャンネル画像として生成した。 0.72
The first two channels were histograms of positive and negative events, whereas the other four channels were the mean and standard deviation of normalized timestamps at each pixel for the positive and negative events. 最初の2つのチャネルは正と負のイベントのヒストグラムであり、他の4つのチャネルは正と負のイベントに対する各ピクセルの正規化されたタイムスタンプの平均と標準偏差であった。 0.74
They showed that an Xception-based encoder–decoder architecture could learn semantic segmentation from the 6-channel information. 彼らはXceptionベースのエンコーダ・デコーダアーキテクチャが6チャンネル情報からセマンティックセグメンテーションを学習できることを示した。 0.64
Although this method achieves semantic segmentation from privacy-preserved event cameras, it is difficult to detect people who are not moving. 本手法は,プライバシ保護イベントカメラからのセマンティックセグメンテーションを実現するが,移動していない人を検出することは困難である。 0.68
Irie et al [12] proposed a method that generates segmentation images from sounds. Irie et al [12] は音からセグメンテーション画像を生成する手法を提案した。 0.79
They recorded sounds using 4channel microphone arrays. 4チャンネルのマイクロフォンアレイを使って録音した。 0.57
They used Mel frequency cepstral coefficients and angular spectrum from sounds for estimating segmentation images. 彼らはセグメント画像の推定にメル周波数ケプストラム係数と音からの角スペクトルを用いた。 0.67
This method can estimate human and environmental objects only from sounds. この方法は音のみから人間や環境の物体を推定することができる。 0.65
However, estimating segmentation images for non-sounding people is difficult in principle because this method analyzes the sound emitted from objects. しかし,物体から放射される音を分析するため,非聴覚者のセグメンテーション画像の推定は原則的に困難である。 0.75
2.2. Airborne ultrasonic sensing 2.2. 空中超音波センシング 0.60
Airborne ultrasound could be used to detect non-sounding people. 空中超音波は、非音の人を検出するのに使える。 0.53
The positions of people can be detected by analyzing ultrasound echos reflected by them. 人の位置は、反射する超音波エコーを分析して検出できる。 0.75
Although the multipath effect influences detection, it is less effective than radio waves because the propagation speed of ultrasound is slower than that of radio waves. マルチパス効果は検出に影響を及ぼすが、超音波の伝搬速度が電波よりも遅いため、電波よりも効果が低い。 0.69
Airborne ultrasonic sensors have been used to detect distance in various industries, such as the automobile [30] and manufacturing industries [3, 7, 13]. 自動車[30]や製造業[3, 7, 13]など,様々な産業における距離検出に空中超音波センサが使用されている。 0.91
Ultrasonic sensors emit short pulses at regular intervals. 超音波センサは一定間隔で短パルスを発する。 0.69
The ultrasounds are reflected if there are objects in the propagation path. 伝搬路に物体がある場合、超音波は反射される。 0.71
The distance of objects can be determined by analyzing the time differences between emitted and reflected sounds [2]. 放射音と反射音の時間差 [2] を解析することで物体の距離を決定することができる。 0.79
When sounds are captured using microphone arrays, the directions of objects can be detected in addition to their distances [19]. マイクロホンアレイを用いて音をキャプチャすると、距離[19]に加えて物体の方向を検出することができる。 0.79
Sound localization using beamforming algorithms has been developed. ビームフォーミングアルゴリズムを用いた音像定位法を開発した。 0.56
A delay-and-sum (DAS) method is a common beamforming algorithm [23]. delay-and-sum (das) 法は一般的なビームフォーミングアルゴリズム [23] である。 0.70
The DAS method can estimate the direction of sound sources by adding array microphone signals delayed by a given amount of time. das法は、所定の時間内に遅延するアレーマイクロホン信号を追加することにより、音源の方向を推定できる。 0.69
By using ultrasonic transducers and microphone arrays, the positions of objects can also be estimated using the DAS with regarding a reflected position as a sound source. 超音波トランスデューサとマイクロホンアレイを用いることで、音源としての反射位置に関するDASを用いて物体の位置を推定することもできる。 0.85
Although this method can detect the position of objects, it is difficult to obtain the actual shape of objects from echoes of a single pulse. この方法は物体の位置を検出することができるが、単一のパルスのエコーから物体の実際の形状を得ることは困難である。 0.81
Hwang et al [11] performed three-dimensional shape detection using wideband ultrasound and neural networks. Hwangらは広帯域超音波とニューラルネットワークを用いて3次元形状検出を行った。 0.80
Although the analysis of multiple frequencies can precisely detect the positions and shapes of objects, the sound system for emitting wideband frequency becomes large, and the number of data increases because of the high sampling rate required to sense wideband ultrasound. 複数周波数の解析は物体の位置や形状を正確に検出できるが、広帯域周波数を放射する音響システムが大きくなり、広帯域超音波を検知するために必要なサンプリングレートが高いためデータ数が増加する。 0.89
Therefore, we consider obtaining segmentation images from the positional information on reflected objects analyzed by narrowband frequency ultrasound using a neural network. そこで,ニューラルネットワークを用いた狭帯域周波数超音波による反射物体の位置情報からセグメント化画像を得る。 0.84
3. Ultrasound sensing in the proposed method 提案手法における超音波センシング 0.61
First, we describe the hardware setup of our ultrasound sensing system. まず,超音波センシングシステムのハードウェア構成について述べる。 0.76
Then, we describe the preprocessing for converting 次に,変換の前処理について述べる。 0.58
ultrasound waves to ultrasound images. 超音波から超音波画像へ 0.79
3.1. Ultrasound sensing system 3.1. 超音波センシングシステム 0.60
The hardware setup is shown in Figure 2. ハードウェアの設定は図2に示します。 0.87
The transmitter comprised a function generator and an ultrasonic transducer at 62 kHz resonance. 送信機は機能発電機と62kHzの超音波トランスデューサから構成されていた。 0.70
The ultrasonic transducer was driven with burst waves of 20 cycles and 50 ms intervals at 62 kHz using the function generator. 超音波トランスデューサは関数発生器を用いて20サイクルのバースト波と62khzで50ms間隔で駆動された。 0.80
The receiver comprised a MEMS microphone array, an analog-to-digital converter, a field-programmable gate array (FPGA), and a PC. 受信機はMEMSマイクロフォンアレイ、アナログ・デジタル変換器、フィールドプログラマブルゲートアレイ(FPGA)、PCから構成されていた。 0.73
A 4 × 4 grid MEMS microphone array, whose microphones were mounted on a 30 mm2 substrate at 3.25 mm intervals, was used. 3.25mm間隔で30mm2基板にマイクロホンを装着した4×4グリッドmemsマイクロホンアレイを用いた。 0.73
The analog signals captured by the microphones were converted to digital signals and imported into the PC through the FPGA. マイクロフォンが取得したアナログ信号はデジタル信号に変換され、FPGAを介してPCにインポートされる。 0.74
The distance between the microphone array and ultrasonic transducer was set to 30 mm. 3.2. マイクロホンアレイと超音波トランスデューサの距離を30mm3.2に設定した。 0.77
Data preprocessing The diagram of the data preprocessing is shown in Figure 3. データ前処理 データ前処理の図を図3に示します。 0.77
First, a band-pass filter with a center frequency of 62 kHz and bandwidth of 10 kHz was used for signals captured by the 16 microphones. まず, 中心周波数62kHz, 帯域幅10kHzの帯域通過フィルタを16マイクロホンの受信信号に適用した。 0.69
The filtered ultrasound signals were divided into blocks including direct and reflected waves. フィルタされた超音波信号は、直接および反射波を含むブロックに分割された。 0.63
Then, we upsampled the ultrasound waves four times at each block to improve the accuracy of direction estimation. そして、各ブロックで4回超音波を増幅し、方向推定の精度を向上させる。
訳抜け防止モード: そして、各ブロックで4回超音波を増幅した。 方向推定の精度を向上させるためです
0.72
Following that, we produced ultrasound images from reflected ultrasounds via DAS その後 dasで反射超音波から 超音波画像を作成しました 0.72
3 3 0.42
英語(論文から抽出)日本語訳スコア
Figure 2. Hardware setup of ultrasonic wave transmitter and receiver system. 図2。 超音波送信機と受信機のハードウェア構成 0.71
Figure 3. Diagram of preprocessing of ultrasound signals. 図3。 超音波信号の前処理ダイアグラム 0.73
The multiple ultrasound signals are filtered and then divided into single directreflected wave pairs. 複数の超音波信号はフィルタされ、単一の直接反射波対に分割される。 0.69
The upsampled reflected waves are extracted and DAS beamformed, and an ultrasound image is created. アップサンプリングされた反射波を抽出してdasビーム形成し、超音波画像を生成する。 0.66
beamforming. The beamformed signal y can be defined as ビームフォーミング ビームフォーミング信号yを定義できる 0.56
y(t) = xm(t − ∆m), y(t) = xm(t − ) である。 0.57
(1) m=1 where t is the time, M is the number of microphones, xm is the signal received by the m-th microphone, and ∆m is the time delay for the m-th microphone, which is determined by the speed of sound and distance between the m-th microphone and observing points. (1) m=1。 t が時間、m がマイクの数、xm が m 番目のマイクが受信する信号であり、/m が m 番目のマイクの時間遅延であり、m 番目のマイクと観測点の間の音速と距離によって決定される。 0.51
We set the observing points in the range of θ = −45–45 degrees in the azimuthal direction and φ = −60–60 degrees in the polar direction. 観測点を、方位方向のθ = −45–45度、極方向のφ = −60–60度の範囲に設定した。 0.85
Then, we calculated beamformed signals and obtained the reflected directional heat maps. そして,ビームフォーミング信号を計算し,反射方向熱マップを得た。 0.79
To reduce the noise from reflected waves from objects other than people, we calculated ultrasound heat maps Hus by subtracting a reference map Href from reflected directional heat maps H as Hus(i, j) = H(i, j) − kHref (i, j), 人体以外の物体からの反射波のノイズを低減するため,反射熱マップhからhs(i,j) = h(i,j) − khref(i,j)として参照マップhrefを減算することにより,超音波熱マップhusを算出した。 0.85
(2) where (i, j) is the pixel of the heat maps, and k is the coefficient, which is determined by (2) i, j) がヒートマップのピクセルであり、k が係数であり、それが決定される場合 0.52
k = H(imax, jmax) Href (imax, jmax) k = H(imax, jmax) Href (imax, jmax) 0.42
, (3) where (imax, jmax) is the index of the maximum pixel of Href. , (3) ここで (imax, jmax) は href の最大画素のインデックスである。 0.56
Notably, the reference map was calculated using the data without people, and Hus was normalized as 特に、人のいないデータを用いて参照マップを計算し、Husを正規化した。 0.67
M(cid:88) (cid:40) M(第88回) (系統:40) 0.63
Xus(i, j) = Xus(i, j) = 0.43
0, Hus(i,j) 0, Hus(i,j) 0.42
Hus(i, j) < 0 max(Hus) , Hus(i, j) ≥ 0 Hus(i, j) < 0 max(Hus) , Hus(i, j) ≥ 0 0.85
(4) when it was converted to ultrasound images Xus. (4) 超音波画像に変換されたとき xus。 0.58
Examples of segmentation and ultrasound images are shown in Figure 4. セグメント化と超音波画像の例を図4に示す。 0.86
The segmentation images in the top row were annotated from RGB images. 上位行のセグメンテーション画像はRGB画像から注釈付けされた。 0.75
The ultrasound images, which represent the intensity of the reflected ultrasound at each pixel, had ambiguous shapes at the positions corresponding to a person. 各画素における反射超音波の強度を表す超音波画像は、人物に対応する位置においてあいまいな形状であった。 0.81
Furthermore, there were artifacts in the region without any people. また、この地域には人無しの人工物も存在した。 0.58
4. Human segmentation via ultrasound 4. 超音波によるヒトセグメンテーション 0.57
We first describe an overview of the proposed network. まず,提案するネットワークの概要について述べる。 0.81
Second, we briefly explain probabilistic U-Net, which is the basis 第2に、確率的u-netについて簡単に説明する。 0.55
of the proposed method. Finally, we describe the proposed network in detail. 提案された方法です 最後に,提案するネットワークについて詳述する。 0.73
4 4 0.42
英語(論文から抽出)日本語訳スコア
Figure 4. Example of segmentation and ultrasound images. 図4。 セグメンテーションと超音波画像の例。 0.76
The top row is the segmentation images genera by RGB images and the bottom row is the ultrasound images. 上行はRGB画像による分割画像であり、下行は超音波画像である。
訳抜け防止モード: 上位行はRGB画像による分割画像である 一番下の列は超音波画像です
0.68
Figure 5. Network architecture. 図5。 ネットワークアーキテクチャ。 0.73
(a) is the conventional probabilistic U-Net and (a)従来の確率的U-Net 0.73
(b) is the proposed CLPU-Net. (b)clpu-netの提案である。 0.57
4.1. Overview As shown in Fig 4, the ultrasound images do not have the shape of a person, and their edges are very different from those of the segmentation images. 4.1. 概要 図4に示すように、超音波画像は人物の形状を持たず、そのエッジはセグメント画像と大きく異なる。 0.55
When there is a lot of ambiguity in the input image or when the difference between input and output is large, it is better to use the probabilistic method than the deterministic method. 入力画像に曖昧性が多い場合や、入力と出力の差が大きい場合は、決定論的方法よりも確率的手法を使う方がよい。 0.68
Thus, we consider performing human segmentation based on probabilistic models. そこで本研究では,確率モデルに基づく人間のセグメンテーションの実行を検討する。 0.60
Kohl et al [15] proposed a probabilistic U-Net combining VAE [14] with U-Net. Kohl ら [15] は VAE [14] と U-Net を組み合わせた確率的 U-Net を提案した。 0.71
This method learns prior and posterior networks, which output the latent spaces of input and input/segmentation images, respectively, to be close. 本手法は,入力/セグメント画像の潜時空間をそれぞれ近接的に出力する先行ネットワークと後続ネットワークを学習する。 0.71
The latent variables sampled from the latent space of the posterior network are added to the last layer of U-Net. 後方ネットワークの潜在空間からサンプリングされた潜在変数は、u-netの最終層に追加される。 0.64
This method deals with large discrepancies between the input and output images by sampling latent variables from the latent space output by the prior network during the inference phase. 本手法は,入力画像と出力画像の間には,推定フェーズ中に先行ネットワークが出力する潜時空間から潜時変数をサンプリングすることにより大きな相違を解消する。 0.73
However, it is difficult to handle with the existing prior network because the difference in appearance between the ultrasound and segmentation images is huge. しかし,超音波画像とセグメンテーション画像の外観の差が大きいため,既存のネットワークを扱うことは困難である。 0.76
Thus, we propose collaborative learning probabilistic U-net based on probabilistic U-Net. そこで我々は,確率的U-Netに基づく協調学習確率U-netを提案する。 0.55
Details of the proposed method are described below. 提案手法の詳細は以下の通りである。 0.71
5 5 0.43
英語(論文から抽出)日本語訳スコア
4.2. Probabilistic U-Net [15] 4.2. 確率的U-Net [15] 0.34
In this section, we explain the probabilistic U-Net. 本稿では確率的U-Netについて説明する。 0.59
The architecture of the probabilistic U-Net is shown in Figure 5(a). 確率的u-netのアーキテクチャは図5(a)に示されます。 0.72
During the inference phase, the input image Xin is input into the prior network and U-Net. 推論フェーズでは、入力画像Xinが前のネットワークとU−Netに入力される。 0.71
The prior network, which is parameterized by ω, encodes the input image and outputs the parameters of the mean µprior(Xin; ω) and variance σprior(Xin; ω). 先行ネットワークは ω によってパラメータ化され、入力画像を符号化し、平均 μprior(xin; ω) と分散 σprior(xin; ω) のパラメータを出力する。 0.87
Then the data z was randomly sampled from the prior distribution P as そして、前の分布Pからデータzをランダムにサンプリングした。 0.77
z ∼ P (·|Xin) = N(cid:0)µprior(Xin; ω), diag(σprior(Xin; ω))(cid:1), z > P (·|Xin) = N(cid:0)μprior(Xin; ω) diag(σprior(Xin; ω))(cid:1) 0.47
(5) and broadcasted to the N-channel feature map to match the shape to the segmentation image. (5) nチャネルの特徴マップにブロードキャストして、セグメンテーション画像の形状にマッチさせる。 0.58
The feature maps are concatenated at the last layer of the U-Net, and the output image is estimated by convoluting the feature maps from the prior network and U-Net. 特徴マップは、U-Netの最終層で連結され、出力画像は、前のネットワークとU-Netから特徴マップを畳み込み、推定される。 0.79
During the training phase, the posterior network is added to encode the information about the segmentation image. トレーニングフェーズでは、セグメンテーション画像に関する情報をエンコードするために後続ネットワークが追加される。 0.73
The posterior network parameterized by ν encodes the data that contains the input image Xin and segmentation image Xseg. νでパラメータ化された後続ネットワークは、入力画像Xinとセグメント画像Xsegを含むデータを符号化する。 0.77
The parameters of the mean µpost(Xin, Xseg; ν) and variance σpost(Xin, Xseg; ν) of the posterior distribution Q are obtained using the posterior network. 後方分布qの平均 μpost(xin, xseg; ν) および分散 σpost(xin, xseg; ν) のパラメータは、後方ネットワークを用いて得られる。 0.76
Then, the data z is sampled from the posterior distribution Q as そして、後分布qからデータzをサンプリングする。 0.61
z ∼ Q(·|Xin, Xseg) = N(cid:0)µpost(Xin, Xseg; ν), diag(σpost(Xin, Xseg; ν))(cid:1), z > Q(·|Xin, Xseg) = N(cid:0)μpost(Xin, Xseg; ν) diag(σpost(Xin, Xseg; ν))(cid:1) 0.48
(6) and combined to the feature map at the last layer of the U-Net. (6) そして、U-Netの最後のレイヤのフィーチャーマップと組み合わせる。 0.55
The loss function consists of two terms. 損失関数は2つの項からなる。 0.80
The first term is cross entropy to minimize the error between the estimated image and ground truth. 第一項は、推定画像と基底真理の間の誤差を最小化するクロスエントロピーである。 0.72
The second term is KLD to close the distribution between the prior distribution P and posterior distribution Q. The losses are combined as a weighted sum, 第2の項は、前分布pと後分布qとの間の分布を閉じるためにkldであり、損失は重み付き和として結合される。 0.73
L(Xseg, Xin) = Ez∼Q(·|Xseg,Xin) [− log P (Xseg|Xout(Xin, z))] + βDKL(Q(z|Xseg, Xin) (cid:107) P (z|Xin)), L(Xseg, Xin) = Ez'Q(·|Xseg, Xin) [− log P(Xseg|Xout(Xin, z))] + βDKL(Q(z|Xseg, Xin))(cid:107)P(z|Xin)) 0.47
where Xout(·) outputs the estimated segmentation image and β is the weight parameter. Xout(·) は推定セグメンテーション画像を出力し、β は重みパラメータである。 0.68
4.3. CLPU-Net 4.3. CLPU-Net 0.32
Although the appearance of ultrasound and ground truth segmentation images differ significantly at the edges, the appearance of the other parts, particularly positions, is relatively similar. 超音波と地上の真理分割画像の出現はエッジで大きく異なるが、他の部分、特に位置の出現は比較的類似している。 0.59
Therefore, it is important to learn latent space by focusing on the difference in edges. したがって,エッジの違いに着目して潜在空間を学習することが重要である。 0.78
In probabilistic U-Net, prior distribution P and posterior distribution Q are penalized using KLD. 確率的u-netでは、kldを用いて事前分布pと後方分布qをペナルティ化する。 0.57
Reducing the distance between the distributions to estimate edges with high accuracy by comparing the distributions obtained after the spatial dimensions decreased at the prior/posterior network. 空間次元を前/後ネットワークで減少させた分布と比較することにより,分布間の距離を高精度に推定する。 0.82
Because the ultrasound and segmentation images are roughly matched other than edges. 超音波画像とセグメンテーション画像は エッジ以外と大まかに一致しているからです 0.68
Thus, we propose a method to use mean squared error (MSE) of means and variances instead of KLD. そこで本稿では,KLDの代わりに平均二乗誤差(MSE)を用いる手法を提案する。 0.70
The errors between the standard normal distribution calculated by KLD and MSE are shown in Figure 6. KLDとMSEで計算された標準正規分布の誤差を図6に示す。 0.79
The MSE loss was calculated as mseの損失 計算すると 0.42
MSE = (µ − µ0)2 + (σ − σ0)2, MSE = (µ − µ0)2 + (σ − σ0)2, 0.45
(7) where µ0 = 0 and σ0 = 1 are the mean and variance of the standard normal distribution. (7) ここで μ0 = 0 と σ0 = 1 は標準正規分布の平均と分散である。 0.89
Since the value around the error of 0 for the MSE loss changes more rapidly than that of the KLD (Fig. 6), the MSE loss is more sensitive than the KLD. mse損失の誤差の周りの値はkldの誤差よりも急速に変化するので(図6)、mse損失はkldよりも感度が高い。 0.57
Therefore, converging to an optimal result by KLD is difficult because of the small gradient of loss landscape, since the ultrasound and segmentation images are roughly matched other than edges. したがって, 超音波画像とセグメンテーション画像がほぼ一致しているため, 損失景観の勾配が小さいため, KLDによる最適結果の収束は困難である。 0.86
Thus, we propose a method that uses MSE loss of the means and variances to penalize the differences of the latent spaces. そこで本研究では,平均のmse損失と分散を用いて潜在空間の違いをペナライズする手法を提案する。 0.73
Additionally, KLD regularization is added to the posterior distribution to approach a standard normal distribution. さらに、kld正規化が後方分布に追加され、標準正規分布に近づく。 0.68
The proposed network is illustrated in Figure 5(b). 提案するネットワークを図5(b)に示す。 0.69
The comparison method between the prior and posterior distributions 前方分布と後方分布の比較法 0.63
at the training phase distinguishes the probabilistic U-Net. 訓練段階では確率的u-netを区別する。 0.61
The loss function L of the proposed method is as follows: 提案手法の損失関数 L は以下の通りである。 0.80
L = αLVAE + (1 − α)LMSE, l = αlvae + (1 − α)lmse である。 0.74
(8) (9) where α is the weights adjusting the scale. (8) (9) ここでαはスケールを調整する重みです 0.52
The first term LVAE is LVAE の最初の用語は 0.88
LVAE = Ez∼Q(·|Xseg,Xus) [− log P (Xseg|Xout(Xus, z))] + βDKL(P0(z) (cid:107) Q(z|Xseg, Xus)), where Xus is the ultrasound image and P0(z) is the standard normal distribution. LVAE = Ez'Q(·|Xseg, Xus) [− log P (Xseg|Xout(Xus, z))] + βDKL(P0(z) (cid:107) Q(z|Xseg, Xus)) ここで Xus は超音波像、P0(z) は標準正規分布である。 0.91
The second term LMSE is LMSE (複数形 LMSEs) 0.61
LMSE = 1 N (µprior,n − µpost,n )2 + LMSE = 1N (μprior,n − μpost,n )2 + 0.44
1 N (σprior,n − σpost,n )2, 1N (σprior,n − σpost,n )2, 0.44
N(cid:88) n=1 N(第88回) n=1 である。 0.47
N(cid:88) n=1 N(第88回) n=1 である。 0.47
where N is the dimension of the latent vector. ここで N は潜在ベクトルの次元である。 0.72
6 6 0.43
英語(論文から抽出)日本語訳スコア
Figure 6. Comparison of errors with standard normal distribution by KLD and MSE. 図6。 KLDとMSEによる標準正規分布の誤差の比較 0.75
The left figure shows the errors calculated by KLD, and the right figure shows the errors calculated by MSE. 左図はKLDで計算した誤差を示し、右図はMSEで計算した誤差を示す。 0.70
Table 1. Number of images at each condition. 表1。 各条件における画像数。 0.75
Condition number 1 2 3 条件番号 1 2 3 0.51
4 5 6 total Number of images 4 5 6 総じて 画像数 0.49
7,792 7,768 7,792 7,768 0.29
7,634 7,727 7,634 7,727 0.29
7,777 7,796 7,777 7,796 0.29
46,494 5. Experiments 46,494 5.実験 0.56
In this section, we describe the dataset configuration, experimental setup, and evaluation results. 本稿では,データセットの構成,実験セットアップ,評価結果について述べる。 0.80
5.1. Experimental setup 5.1.1 Datasets We created a dataset1 because no datasets have been previously used airborne ultrasound to detect humans. 5.1. 実験的なセットアップ 5.1.1 データセット 私たちはデータセットを作成した。 0.47
For 10 s, we captured the ultrasounds at 192 kHz sampling from 16 channel microphones and videos at 30 frames per second (fps) from the RGB camera (a built-in camera of Let’s Note, CF-SV7, Panasonic), which was located 35 mm under the microphone array. マイクロフォンアレイの下35mmに位置するrgbカメラ(let’s note, cf-sv7, panasonicの内蔵カメラ)から16チャンネルのマイクロフォンから192khzのサンプリングと30fps(fps)の超音波を撮影しました。
訳抜け防止モード: 10秒間、RGBカメラ(Let ’s Noteのカメラ内蔵)から16チャンネルのマイクとビデオから192kHzのサンプリングを行い、毎秒30フレーム(fps)で撮影しました。 CF - SV7, Panasonic )は、マイクロフォンアレイの下35mmに位置する。
0.70
The resolution was 180 × 120, and the videos were used for creating segmentation images for the training phase. 解像度は180×120で、ビデオはトレーニングフェーズのセグメンテーション画像の作成に使用された。 0.73
The data were extracted at 10 fps because the time interval of the ultrasound generation was 20 bursts per second and the frame rate of the video was 30 fps. ビデオのフレームレートが30 fpsで, 超音波発生の時間間隔が20 バースト/秒, フレームレートが30 fpsであったため, データは10 fpsで抽出された。 0.79
We automatically produced segmentation images using Mask R-CNN [10]. Mask R-CNN [10] を用いて分割画像を自動生成する。 0.70
We used the dataset that people, who were located from 1 to 3 m away from the sensing devices, performed motions such as standing, sitting, walking, and running. センシングデバイスから1~3m離れた場所にいる人々が、立ち上がり、座ったり、歩いたり、走ったりといった動作を行うデータセットを使用した。 0.73
Examples of the segmentation images were shown in Figure セグメンテーション画像の例は図に示されています 0.78
7. These are the images for standing, sitting, walking, running, respectively. 七 立位、座位、歩行、走るための画像。 0.44
There were six participants and they performed in four different rooms. 6人が参加し、4つの異なる部屋で演奏した。 0.71
The rooms are shown in Figure 部屋は図に示されています 0.74
8. Rooms 1 and 3 were surrounded by relatively acoustically reflective walls and rooms 2 and 4 were surrounded by relatively acoustically absorbent materials. 8. 部屋1,3は比較的音を反射する壁に囲まれ,部屋2,4は比較的音を吸収する材料に囲まれていた。 0.64
The number of images at each condition is shown in Table 1. 各条件における画像の数は表1に示す。 0.81
The condition numbers 1 to 6 indicate the participants’ number. 条件番号1から6は、参加者の番号を示す。 0.84
Images were captured about 7,700 images at each condition, the total number was 46,494. 各条件で約7700枚の画像が撮影され、総数は46,494枚だった。 0.65
1This data acquisition experiment was judged by our institution to be not the subject of the examination by the Institutional Review Board. 1このデータ取得実験は,機関審査委員会による審査の対象ではないと判断された。 0.70
Participants in data acquisition have given their written consent. 参加者 データ取得で 彼らの同意が得られました 0.65
7 7 0.42
英語(論文から抽出)日本語訳スコア
Figure 7. Segmentation images. 図7。 セグメンテーション画像。 0.69
The motions are standing, sitting, walking, and running in order from the left. 動きは、左から並んで立って、座って、歩き、走っています。 0.85
Table 2. IoU, accuracy, precision, recall, F1-socre of VAE, Joint-VAE, Probabilistic U-Net, and CLPU-Net. 表2。 IoU、精度、精度、リコール、VAE、ジョイントVAE、確率的U-Net、CLPU-Net。 0.74
Each metric was averaged for all six patterns of the k-fold cross-validation. 各測定値は、k-foldクロスバリデーションの6つのパターンすべてに対して平均された。 0.53
Figure 8. Rooms used for data acquisition. 図8。 データ取得に使用される部屋。 0.76
Confidential areas are blurred. 秘密の領域はぼやけている。 0.50
Model VAE Joint-VAE モデル ヴェイ ジョイントVe 0.57
Probabilistic U-Net CLPU-Net 確率的U-Net CLPU-Net 0.27
IoU 0.265 0.278 0.329 0.388 イオウ 0.265 0.278 0.329 0.388 0.36
Accuracy Precision Recall 正確さ 正確さ 思い出して 0.56
F1-score 0.880 0.889 0.912 0.921 F1スコア 0.880 0.889 0.912 0.921 0.36
0.351 0.376 0.485 0.536 0.351 0.376 0.485 0.536 0.23
0.526 0.507 0.490 0.546 0.526 0.507 0.490 0.546 0.23
0.403 0.392 0.456 0.519 0.403 0.392 0.456 0.519 0.23
5.1.2 Evaluation We evaluated the proposed method using k-fold cross-validation. 5.1.2 評価 提案手法をk-foldcross-validati onを用いて評価した。 0.53
To confirm the robustness of the unknown person data, the dataset was divided based on the person, which corresponds to the conditions listed in Tab. 未知の人物データのロバスト性を確認するために,タブにリストされた条件に対応する人物に基づいてデータセットを分割した。 0.73
1. Therefore, k was set to six, and all six patterns were trained and evaluated, for example learning at condition number 2 to 6 and evaluating at condition number 1. 1. そこでkを6に設定し,条件2~6で学習し,条件1で評価した。
訳抜け防止モード: 1. したがって、kは6に設定され、6つのパターンはすべて訓練された。 例えば 条件番号2から6の学習は 条件番号1で評価します
0.59
The performance of the model was evaluated using an intersection-over-un ion (IoU), accuracy, precision, recall, and F1-score. モデルの性能はiou(intersection-ove r-union)、精度、精度、リコール、f1-scoreを用いて評価した。 0.59
5.1.3 Implementation details 5.1.3 実装の詳細 0.47
The prior and posterior networks consisted of four blocks of layers. 前部と後部のネットワークは4つの層から構成されていた。 0.65
A block consisted of three pairs of a 2-dimensional convolution layer and ReLU and an average pooling layer. ブロックは、2次元畳み込み層とreluと平均プーリング層との三対からなる。 0.69
The output channels of the four blocks were 32, 64, 128, 192 in order. 4ブロックの出力チャネルは32, 64, 128, 192の順であった。 0.77
All input images were resized to 128 × 128 pixels. 入力画像はすべて128×128ピクセルにリサイズされた。 0.75
The dimension of means µprior, µpost and variances σprior, σpost was set to 20. 平均μprior, μpost, および分散σprior, σpostの次元は20。 0.83
The batch size was 16 and the initial learning rate was 0.0001. バッチサイズは16で,初期学習率は0.0001であった。 0.81
We used an Adam optimizer with β1 = 0.9, β2 = 0.999 in training. トレーニングでは,Adamオプティマイザをβ1 = 0.9,β2 = 0.999で使用した。 0.60
α was 0.0001 and β was 0.3, respectively, which are determined by a grid search. αは0.0001, βは0.3であり, 格子探索により決定された。 0.84
5.2. Experimental results 5.2. 実験結果 0.59
We first describe the performance of the proposed CLPU-Net and compare it with other methods. まず,提案するCLPU-Netの性能について述べ,他の手法と比較する。 0.74
Then, we described the comparison of the accuracy by distances between the sensor and person. 次に,センサと人物の距離による精度の比較を行った。 0.69
Then, we explain the comparison of the accuracy by rooms. 次に,部屋ごとの精度の比較について述べる。 0.77
Finally, quantitative results are described. 最後に定量的な結果について述べる。 0.55
8 8 0.42
英語(論文から抽出)日本語訳スコア
Figure 9. Histograms of IoU of CLPU-Net and conventional methods. 図9。 CLPU-NetのIoUのヒストグラムと従来法 0.71
The frequency distributions of the data with distances between 1 m and less than 2 m, and the data of distances between 2 m and less than 3 m were displayed. 距離が1m未満で2m未満のデータの周波数分布と、距離が2m未満のデータを3m未満で表示した。 0.65
5.2.1 Performance of CLPU-Net 5.2.1 CLPU-Netの性能 0.52
We first evaluated the performance of the proposed CLPU-Net. 提案するCLPU-Netの性能評価を行った。 0.74
Then, we compared our model with probabilistic U-Net, VAE, Joint-VAE [6] to confirm the validity of learning with ultrasound and segmentation images. そして,我々のモデルと確率的U-Net, VAE, Joint-VAE [6]を比較し,超音波画像とセグメンテーション画像による学習の有効性を確認した。 0.72
The VAE and Joint-VAE were trained using segmentation images and inferred using ultrasound images. VAEとJoint-VAEはセグメンテーション画像を用いて訓練され、超音波画像を用いて推測された。 0.52
The CLPU-Net and probabilistic U-Net were trained using ultrasound and segmentation images and inferred using ultrasound images. CLPU-Netと確率的U-Netは超音波画像とセグメンテーション画像を用いて訓練し,超音波画像を用いて推定した。
訳抜け防止モード: 超音波とセグメンテーション画像を用いたCLPU-Netと確率的U-Netの訓練 超音波画像で推測します
0.64
Table 2 illustrates the qualitative results. 表2は質的な結果を示している。 0.60
Each metric was averaged for all six patterns of the k-fold cross-validation. 各測定値は、k-foldクロスバリデーションの6つのパターンすべてに対して平均された。 0.53
The proposed CLPU-Net was marked highest in all metrics of the four models. 提案されたCLPU-Netは4つのモデルのすべての指標で最高であった。 0.63
5.2.2 Comparison by distances between sensor and person 5.2.2 センサと人物の距離による比較 0.73
The amplitude of the reflected ultrasound decreases as the distance between the sensors and person increases. 反射超音波の振幅は、センサと人の距離が増加するにつれて減少する。 0.77
Therefore, we investigated the robustness of the distance between the sensor and a person. そこで,センサと人との距離のロバスト性について検討した。 0.73
Figure 9 shows the IoU histogram, which categorizes the dataset into two types; distances between 1 m and less than 2 m and distances between 2 m and less than 3 m. 図9は、データセットを1mから2m未満の距離と2mから3m未満の距離の2つのタイプに分類するIoUヒストグラムを示している。 0.79
The horizontal axis represents the IoU values, and the vertical axis represents the frequency, which means the number of images at each bin. 水平軸はIoU値を表し、垂直軸は周波数を表す。
訳抜け防止モード: 水平軸はiou値を表す。 縦軸は周波数を表します つまり、各ビンにある画像の数です
0.61
The bin width was set to 0.01. ビン幅は0.01に設定された。 0.73
The blue bins were the data of distances between 1 m and less than 2 m, and the orange bins were the data of distances between 2 m and less than 3 m. 青色のビンは1メートルから2メートル未満の距離のデータであり、オレンジのビンは2メートルから3メートル未満の距離のデータであった。 0.65
Although the frequencies differ due to the difference in the number of images for the conditions, the trends in these frequency distributions were not very different. 周波数は条件の像数の違いによって異なるが、これらの周波数分布の傾向はそれほど変化しなかった。 0.76
Therefore, the accuracy is not affected by the distance within a range of 1 to 3 m. したがって、精度は1~3mの範囲内の距離に影響されない。 0.74
We verified that robustness is sufficient in the range of use because we assume an application will be used at home. 私たちは、アプリケーションが家庭で使われると仮定するため、ロバスト性は使用範囲で十分であることを確認した。 0.63
5.2.3 Comparison by rooms 5.2.3 部屋による比較 0.56
There are various acoustic absorption characteristics in rooms assuming an application will be used at home. 室内での応用を想定した室内音響吸収特性は様々である。
訳抜け防止モード: 室内には様々な音響吸収特性がある アプリケーションが家庭で使用されると仮定する。
0.81
Therefore, we investigated the robustness against the room differences. そこで,部屋の違いに対するロバスト性について検討した。 0.51
The IoU for each room is illustrated in Figure 10. 各部屋のIoUは図10に示されています。 0.77
The IoU of all estimated images were plotted as semi-transparent squares, and the averaged IoU was plotted as a circle with a black line. 全ての推定画像のIoUは半透明の正方形としてプロットされ、平均されたIoUは黒い線を持つ円としてプロットされた。 0.66
The blue, green, orange, and brown represent the IoU of rooms 1, 2, 3, and 4, respectively. 青、緑、オレンジ、茶色はそれぞれ1, 2, 3, 4のIoUを表す。 0.57
The accuracies of rooms 2 and 4, which have a relatively high acoustic absorption rate, tend to be higher and the accuracies of rooms 1 and 3, which have a relatively low acoustic absorption rate, tend to be lower. 音響吸収率が比較的高い2号室と4号室のアキュラティは高く、音響吸収率が比較的低い1号室と3号室のアキュラティは低い傾向がある。 0.53
The decrease in accuracy in reverberant rooms seems to be the effect 残響室の精度低下が影響していると思われる 0.72
9 9 0.43
英語(論文から抽出)日本語訳スコア
Figure 10. IoUs of rooms 1, 2, 3, and 4 of CLPU-Net and conventional methods. 図10。 clpu-netの1・2・3・4室と従来の方法。 0.46
The semi-transparent square represents the IoU of an estimated image, and the circle with a black line represents the averaged IoU. 半透明正方形は推定画像のIoUを表し、黒線を持つ円は平均されたIoUを表す。 0.74
The blue, green, orange, and brown represent the IoUs of rooms 1, 2, 3, and 4, respectively. 青、緑、オレンジ、茶色はそれぞれ1, 2, 3, 4のIoUを表す。
訳抜け防止モード: 青、緑、オレンジ、茶色は1号室のイライアを表している。 2 , 3 , 4 であった。
0.64
Figure 11. Quantitative results. 図11。 定量的な結果。 0.68
The top row is ultrasound images, the second to fourth rows are estimated images by conventional methods, the fifth row is estimated images by CLPU-Net, and the bottom row is ground truth. 上行は超音波画像、下行は従来手法による推定画像、下行はclpu-netによる推定画像、下行は基底真理である。
訳抜け防止モード: 最上列は超音波像で、第2列から第4列は従来の方法で推定される。 5行目はclpu - netによる推定画像である。 一番下の列は 根拠となる真実です
0.57
of higher-order reflected and environmental ultrasounds. 高次反射・環境超音波の観測です 0.65
The accuracies can be improved in reverberant rooms by changing the analysis section of ultrasound waves at preprocessing according to the distance between the sensor and person. センサと人の距離に応じて前処理時の超音波の分析部を変更することにより、残響室での精度を向上させることができる。 0.79
5.2.4 Quantitative result 5.2.4 定量結果 0.54
The quantitative result is shown in Figure 11. 定量的な結果は図11に示します。 0.82
In the VAE and Joint-VAE, the shapes are not properly estimated and there are no people in some estimated images. VAEとJoint-VAEでは、形状が適切に推定されておらず、いくつかの推定画像には人がいない。 0.59
In these methods, the information on ultrasound images was excluded at the training phase, and they cannot estimate segmentation images from ultrasound images. これらの手法では,訓練段階で超音波画像に関する情報は除外され,超音波画像からのセグメンテーション画像は推定できない。 0.82
Therefore, using the information in the segmentation images at the training phase affects the estimation. したがって、訓練段階でのセグメンテーション画像の情報の利用は推定に影響する。 0.76
Although the probabilistic U-Net can capture the shapes 確率的U-Netは形状を捉えることができる 0.64
10 10 0.43
英語(論文から抽出)日本語訳スコア
better than those of the VAE and Joint-VAE, the estimation fails if the input and segmentation images have a large discrepancy. VAEやJoint-VAEよりも優れているが、入力画像とセグメント画像の差が大きい場合、推定は失敗する。 0.73
Alternatively, the proposed method has been estimated under such conditions. また,このような条件下で提案手法を推定した。 0.72
Some images from CLPU-Net, such as 1st, 5th, 8th, and 12th columns from the right, are closer to the ground truth. CLPU-Netの右から1、第5、第8、第12列などの画像は、真実に近い。 0.58
In contrast, those images from probabilistic U-Net tend to swell or shrink. 対照的に、確率的U-Netの画像は膨らむか縮小する傾向がある。 0.57
6. Conclusions We proposed privacy-aware human segmentation from airborne ultrasound using CLPU-Net. 6.結論 CLPU-Net を用いた空気中超音波からのプライバシー認識による人間のセグメンテーションを提案する。 0.60
Our method used the MSE of the means and variances, which are the output of the prior and posterior networks, instead of KLD for comparison of the latent spaces of the prior and posterior networks in probabilistic U-Net. 提案手法は,確率的U-Netにおける先行ネットワークと後続ネットワークの潜時空間を比較するために,KLDの代わりに,先行ネットワークと後続ネットワークの出力である手段と分散のMSEを用いた。 0.81
This enables optimization suitable for the ultrasound image obtained by our proposed device. これにより,提案装置で得られた超音波画像の最適化が可能となる。 0.71
This method can be used to detect human actions in situations where privacy is required, such as home surveillance because the sound/segmentation images cannot be reconstructed to RGB images. この手法は、RGB画像に再構成できないため、ホーム監視などのプライバシーが必要な状況において、人間の行動を検出するために使用できる。 0.74
In the future, we will increase various data and improve the ultrasound image generation process to improve the accuracy in unknown environments. 今後,様々なデータが増え,超音波画像生成プロセスが改善され,未知環境における精度が向上する。 0.85
References [1] Inigo Alonso and Ana C. Murillo. 参考文献 [1] inigo alonso and ana c. murillo 0.35
EV-SegNet: Semantic segmentation for event-based cameras. EV-SegNet: イベントベースのカメラのセマンティックセグメンテーション。 0.67
In Proceedings of the IEEE/CVF IEEE/CVFの進歩 0.74
Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), pages 1624–1633, 2019. コンピュータビジョンとパターン認識ワークショップ(CVPRW, Conference on Computer Vision and Pattern Recognition Workshops) 1624–1633, 2019。 0.72
[2] Alessio Carullo and Marco Parvis. [2]アレッシオ・カルロとマルコ・パルヴィス。 0.47
An ultrasonic sensor for distance measurement in automotive applications. 自動車応用における距離計測用超音波センサ 0.88
IEEE Sensors Journal, ieee sensors journal(英語) 0.51
1(2):143–147, 2001. 1(2):143–147, 2001. 0.44
[3] D.E. Chimenti. [3]D.E. Chimenti. 0.45
Review of air-coupled ultrasonic materials characterization. 空気結合超音波材料の特性評価 0.82
Ultrasonics, 54(7):1804–1816, 2014. 超音波, 54(7):1804–1816, 2014 0.80
[4] Amit Das, Ivan Tashev, and Shoaib Mohammed. Amit Das氏、Ivan Tashev氏、Shoaib Mohammed氏。 0.24
Ultrasound based gesture recognition. 超音波によるジェスチャー認識 0.74
In 2017 IEEE International Conference on 2017年IEEE International Conferenceに参加して 0.74
Acoustics, Speech and Signal Processing (ICASSP), pages 406–410, 2017. 音響、音声、信号処理(icassp)、406-410頁、2017年。 0.62
[5] G.N. Desouza and A.C. Kak. [5]G.N.デスーザとA.C.カク 0.75
Vision for mobile robot navigation: a survey. 移動ロボットナビゲーションのためのビジョン: サーベイ。 0.77
IEEE Transactions on Pattern Analysis and Machine IEEEのパターン分析とマシンに関するトランザクション 0.87
Intelligence, 24(2):237–267, 2002. インテリジェンス、24(2):237-267、2002年。 0.69
[6] Emilien Dupont. 6] エミリアン・デュポン 0.40
Learning disentangled joint continuous and discrete representations. 連接型連続表現と離散表現を学習する。 0.61
In S. Bengio, H. Wallach, H. Larochelle, K. Grauman, N. Cesa-Bianchi, and R. Garnett, editors, Advances in Neural Information Processing Systems (NeurIPS), volume 31. s. bengio, h. wallach, h. larochelle, k. grauman, n. cesa-bianchi, r. garnett, editors, advances in neural information processing systems (neurips, volume 31) の著者である。 0.70
Curran Associates, Inc., 2018. curran associates, inc.、2018年。 0.45
[7] Yiming Fang, Lujun Lin, Hailin Feng, Zhixiong Lu, and Grant W. Emms. [7]陽・林・林・海林・洛・グラント・W・エムズ。 0.42
Review of the use of air-coupled ultrasonic technologies 空気結合型超音波技術の現状と展望 0.72
for nondestructive testing of wood and wood products. 木材や木材の非破壊検査に役立ちます 0.74
Computers and Electronics in Agriculture, 137:79–87, 2017. コンピュータと電子農業、2017年137:79-87。 0.72
[8] Biying Fu, Jakob Karolus, Tobias Grosse-Puppendahl, Jonathan Hermann, and Arjan Kuijper. [8]Biying Fu、Jakob Karolus、Tobias Grosse-Puppendahl、Jonathan Hermann、Arjan Kuijper。 0.31
Opportunities for activity recognition using ultrasound doppler sensing on unmodified mobile phones. 非修飾携帯電話における超音波ドプラセンシングによる活動認識の機会 0.73
In Proceedings of the 2nd international Workshop on Sensor-based Activity Recognition and Interaction, pages 1–10, 2015. 第2回センサーによる活動認識と相互作用に関する国際ワークショップ(2015年1-10ページ)の開催報告 0.71
[9] Daniel Halperin, Wenjun Hu, Anmol Sheth, and David Wetherall. 9]Daniel Halperin, Wenjun Hu, Anmol Sheth, David Wetherall。 0.34
Tool release: Gathering 802.11n traces with channel state infor- ツールリリース: 802.11nトレースをチャネル状態で取得する 0.76
mation. SIGCOMM Computer Communication Review, 41(1):53, 2011. マティオン sigcomm computer communication review, 41(1):53, 2011を参照。 0.55
[10] Kaiming He, Georgia Gkioxari, Piotr Dollar, and Ross Girshick. [10]カイミング・ヘ、ジョージア・グキオクサリ、ピオトル・ドル、ロス・ギルシック。 0.56
Mask R-CNN. In Proceedings of the IEEE International Conference マスクR-CNN。 IEEE International Conferenceに参加して 0.70
on Computer Vision (ICCV), pages 2961–2969, 2017. コンピュータビジョン(iccv)、2961-2969頁、2017年。 0.74
[11] Gunpil Hwang, Seohyeon Kim, and Hyeon-Min Bae. [11]Gunpil Hwang,Seohyeon Kim,Hyeon-Min Bae。 0.39
Bat-G net: Bat-inspired high-resolution 3D image reconstruction using ultrasonic echoes. Bat-G net:超音波エコーを用いた高分解能3次元画像再構成 0.67
In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alch´e-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems (NeurIPS), volume 32. H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alch ́e-Buc, E. Fox, R. Garnett, editors, Advances in Neural Information Processing Systems (NeurIPS), Volume 32。 0.45
Curran Associates, Inc., 2019. curran associates, inc.、2019年。 0.53
[12] Go Irie, Mirela Ostrek, Haochen Wang, Hirokazu Kameoka, Akisato Kimura, Takahito Kawanishi, and Kunio Kashino. [12]五入江、ミレラ・オストレック、ハオチェン・ワン、亀岡広和、木村明里、川西孝仁、鹿野国雄。
訳抜け防止モード: [12 ]ゴ・イリエ、ミレラ・オストレック、ハオチェン・ワン、 亀岡弘一、木村明里、川西孝仁、鹿野邦雄。
0.51
Seeing through sounds: Predicting visual semantic segmentation results from multichannel audio signals. 音を通して見る: 多チャンネル音声信号から視覚意味セグメンテーション結果を予測する。 0.70
In International Conference on Acoustics, Speech, and Signal Processing (ICASSP), pages 3961–3964, 2019. 国際音響・音声・信号処理会議(ICASSP)において、3961-3964, 2019。 0.70
[13] R. Kaˇzys, A. Demˇcenko, E. ˇZukauskas, and L. Maˇzeika. [13]R・カジス、A・デムセンコ、E・ズカウスカス、L・マゼイカ。 0.54
Air-coupled ultrasonic investigation of multi-layered composite materials. 多層複合材料の空気結合超音波による検討 0.78
Ultrasonics, 44:e819–e822, 2006. 超音波, 44:e819–e822, 2006。 0.64
[14] Diederik P Kingma and Max Welling. ディーデリック・P・キングマとマックス・ウェリング。 0.49
Auto-encoding variational bayes. 自動エンコーディング変分ベイズ。 0.67
arXiv preprint arXiv:1312.6114, 2014. arxiv プレプリント arxiv:1312.6114, 2014 0.42
[15] Simon Kohl, Bernardino Romera-Paredes, Clemens Meyer, Jeffrey De Fauw, Joseph R. Ledsam, Klaus Maier-Hein, S. M. Ali Eslami, Danilo Jimenez Rezende, and Olaf Ronneberger. Simon Kohl, Bernardino Romera-Paredes, Clemens Meyer, Jeffrey De Fauw, Joseph R. Ledsam, Klaus Maier-Hein, S. M. Ali Eslami, Danilo Jimenez Rezende, Olaf Ronneberger 0.42
A probabilistic U-Net for segmentation of ambiguous images. 曖昧な画像のセグメンテーションのための確率的U-Net 0.61
In S. Bengio, H. Wallach, H. Larochelle, K. Grauman, N. Cesa-Bianchi, and R. Garnett, editors, Advances in Neural Information Processing Systems (NeurIPS), volume 31. s. bengio, h. wallach, h. larochelle, k. grauman, n. cesa-bianchi, r. garnett, editors, advances in neural information processing systems (neurips, volume 31) の著者である。 0.70
Curran Associates, Inc., 2018. curran associates, inc.、2018年。 0.45
[16] Gierad Laput, Karan Ahuja, Mayank Goel, and Chris Harrison. 16] Gierad Laput氏、Karan Ahuja氏、Mayank Goel氏、Chris Harrison氏。 0.73
Ubicoustics: Plug-and-play acoustic activity recognition. Ubicoustics: プラグアンドプレイ音響活動認識。 0.74
In Pro- ceedings of the 31st Annual ACM Symposium on User Interface Software and Technology, pages 213–224, 2018. プロで- 第31回 ACM Symposium on User Interface Software and Technology, page 213–224, 2018 に参加。 0.72
[17] Manni Liu, Linsong Cheng, Kun Qian, Jiliang Wang, Jin Wang, and Yunhao Liu. [17]マンニ・リ、リンソン・チェン、クン・チャン、ジラン・ワン、ジン・ワン、ユンハオ・リウ。 0.45
Indoor acoustic localization: A survey. Human- 室内音像定位:調査 人間 0.58
centric Computing and Information Sciences, 10, 2020. 中心的な計算と情報科学、2020年10月10日。 0.60
[18] Shervin Minaee, Yuri Boykov, Fatih Porikli, Antonio Plaza, Nasser Kehtarnavaz, and Demetri Terzopoulos. 18] Shervin Minaee, Yuri Boykov, Fatih Porikli, Antonio Plaza, Nasser Kehtarnavaz, Demetri Terzopoulos。 0.34
Image Segmentation Using Deep Learning: A Survey. 画像分割 ディープラーニングの利用: 調査。 0.63
arXiv e-prints, page arXiv:2001.05566, 2020. arxiv e-prints, page arxiv:2001.05566, 2020。 0.41
11 11 0.43
英語(論文から抽出)日本語訳スコア
[19] Marco Moebus and Abdelhak M. Zoubir. [19]Marco MoebusとAbdelhak M. Zoubir。 0.41
Three-dimensional ultrasound imaging in air using a 2D array on a fixed platform. 固定プラットフォーム上の2次元アレイを用いた空気中3次元超音波イメージング 0.81
In 2007 IEEE International Conference on Acoustics, Speech and Signal Processing - ICASSP ’07, volume 2, pages II–961–II–964, 2007. 2007年 IEEE International Conference on Acoustics, Speech and Signal Processing - ICASSP ’07, Volume 2, pages II–961–II–964, 2007
訳抜け防止モード: 2007年 IEEE International Conference on Acoustics, Speech and Signal Processing - ICASSP'07 巻2、巻2-961-II-964、2007年。
0.80
[20] Bruna Salles Moreira, Angelo Perkusich, and Saulo OD Luiz. Bruna Salles Moreira, Angelo Perkusich, Saulo OD Luiz。 0.27
An acoustic sensing gesture recognition system design based on a 音響センサを用いたジェスチャー認識システムの設計 0.71
hidden markov model. 隠れマルコフモデル。 0.57
Sensors, 20(17), 2020. センサーは20(17)、2020年。 0.75
[21] Thomas S Murray, Daniel R Mendat, Kayode A Sanni, Philippe O Pouliquen, and Andreas G Andreou. Thomas S Murray、Daniel R Mendat、Kayode A Sanni、Philippe O Pouliquen、Andreas G Andreou。
訳抜け防止モード: 21]トーマス・s・マレー、ダニエル・r・メンダット、カヨデ・ア・サンニ philippe o pouliquenとandreas g andreou。
0.41
Bio-inspired human action バイオインスパイアされた人間の行動 0.41
recognition with a micro-Doppler sonar system. マイクロドップラーソナーシステムによる認識 0.41
IEEE Access, 6:28388–28403, 2017. ieee access, 6:28388–28403, 2017を参照。 0.46
[22] Kranti Kumar Parida, Siddharth Srivastava, and Gaurav Sharma. 22] kranti kumar parida, siddharth srivastava, gaurav sharma。 0.26
Beyond image to depth: Improving depth prediction using echoes. 画像から深度まで:エコーを用いた深度予測の改善。 0.83
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pages 8268–8277, 2021. ieee/cvf conference on computer vision and pattern recognition (cvpr) の議事録では、8268-8277, 2021ページが掲載されている。
訳抜け防止モード: IEEE / CVF Conference on Computer Vision and Pattern Recognition (CVPR) に参加して 8268-8277、2021年。
0.86
[23] Vincent Perrot, Maxime Polichetti, Franc¸ois Varray, and Damien Garcia. 23]ヴィンセント・ペロー、マクシム・ポリシェッティ、フラン・ショワ・ヴァレー、ダミアン・ガルシア。 0.50
So you think you can DAS? あなたはDASができると思いますか? 0.66
A viewpoint on delay-and-sum 遅延と仮定に関する一考察 0.52
beamforming. Ultrasonics, 111:106309, 2021. ビームフォーミング 超音波 1111:106309, 2021。 0.60
[24] Intisar Rizwan I Haque and Jeremiah Neubert. 24] intisar rizwan i haque と jeremiah neubert です。 0.66
Deep learning approaches to biomedical image segmentation. 深層学習によるバイオメディカル画像のセグメンテーション 0.73
Informatics in Medicine 医学のインフォマティクス 0.59
Unlocked, 18:100297, 2020. アンロック、2020年18:100297。 0.62
[25] Olaf Ronneberger, Philipp Fischer, and Thomas Brox. Olaf Ronneberger氏、Philipp Fischer氏、Thomas Brox氏。 0.31
U-Net: Convolutional networks for biomedical image segmentation. U-Net: バイオメディカルイメージセグメンテーションのための畳み込みネットワーク。 0.78
In Nassir Navab, Joachim Hornegger, William M. Wells, and Alejandro F. Frangi, editors, Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015, pages 234–241, Cham, 2015. Nassir Navab, Joachim Hornegger, William M. Wells, Alejandro F. Frangi, editors, Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015 page 234–241, Cham, 2015
訳抜け防止モード: nassir navab, joachim hornegger, william m. wells. and alejandro f. frangi, editors, medical image computing and computer - assisted intervention – miccai 2015 (英語) 234-241頁、チャム、2015年。
0.66
Springer International Publishing. Springer International Publishing(英語) 0.71
[26] Feng Shi, Jun Wang, Jun Shi, Ziyan Wu, Qian Wang, Zhenyu Tang, Kelei He, Yinghuan Shi, and Dinggang Shen. [26]フェーン・シ、ジュン・ワン、ジュン・シ、ジヤン・ウー、チャン・ワン、チェンユ・タン、ケレイ・ヘ、ヤン・アン・シ、ディンガン・シェン 0.50
Review of artificial intelligence techniques in imaging data acquisition, segmentation, and diagnosis for covid-19. コビッド19のイメージングデータ取得、セグメンテーション、診断における人工知能技術の検討 0.73
IEEE Reviews in Biomedical Engineering, 14:4–15, 2021. IEEE Reviews in Biomedical Engineering, 14:4-15, 2021。 0.41
[27] Jae Mun Sim, Yonnim Lee, and Ohbyung Kwon. 27]jae mun sim、yonnim lee、ohbyung kwon。 0.51
Acoustic sensor based recognition of human activity in everyday life for smart スマートな日常生活における人間活動の音響センサによる認識 0.86
home services. International Journal of Distributed Sensor Networks, 11(9), 2015. ホームサービス。 International Journal of Distributed Sensor Networks, 11(9) 2015年。 0.75
[28] Arun Balajee Vasudevan, Dengxin Dai, and Luc Van Gool. Arun Balajee Vasudevan, Dengxin Dai, そしてLuc Van Gool。 0.53
Semantic object prediction and spatial sound super-resolution with binaural sounds. バイノーラル音を用いた意味的物体予測と空間音響超解像 0.69
In Andrea Vedaldi, Horst Bischof, Thomas Brox, and Jan-Michael Frahm, editors, Computer Vision – ECCV 2020, pages 638–655, Cham, 2020. Andrea Vedaldi, Horst Bischof, Thomas Brox, Jan-Michael Frahm, editors, Computer Vision – ECCV 2020, pages 638–655, Cham, 2020。
訳抜け防止モード: アンドレア・ヴェダルディ、ホルスト・ビショフ、トマス・ブロックス、ヤン - マイケル・フラム 編集部: computer vision – eccv 2020, pages 638–655, cham, 2020。
0.72
Springer International Publishing. Springer International Publishing(英語) 0.71
[29] Fei Wang, Sanping Zhou, Stanislav Panev, Jinsong Han, and Dong Huang. 29] フェイ・ワン、サンピング・周、スタニスラヴ・パネフ、ジンソン・ハン、ドン・フン 0.37
Person-in-WiFi: Fine-grained person perception using Person-in-WiFi: きめ細かい人物認識 0.68
WiFi. In 2019 IEEE/CVF International Conference on Computer Vision (ICCV), pages 5451–5460, 2019. WiFi。 2019年、IEEE/CVF International Conference on Computer Vision (ICCV)、5451-5460, 2019。 0.40
[30] W. Wang, Y. Song, J. Zhang, and H. Deng. [30]W.Wang、Y.Song、J.Zhang、H.Deng。 0.64
Automatic parking of vehicles: A review of literatures. 車両の自動駐車:文献のレビュー。 0.63
International Journal of Automotive Technology, 15(6):967–978, 2014. 国際自動車雑誌 技術15(6):967-978, 2014。 0.80
[31] Linlin Xia, Jiashuo Cui, Ran Shen, Xun Xu, Yiping Gao, and Xinying Li. [31]リン・シャイ、ジャシュオ・クイ、ラン・シェン、xun xu、yiping gao、xinying li 0.54
A survey of image semantics-based visual simultaneous International Journal of 画像意味論に基づく視覚同時国際雑誌の調査 0.79
localization and mapping: Application-oriented solutions to autonomous navigation of mobile robots. ローカライゼーションとマッピング: モバイルロボットの自律ナビゲーションに対するアプリケーション指向のソリューション。 0.83
Advanced Robotic Systems, 17(3):17298814209191 85, 2020. 先端ロボットシステム 17(3):17298814209191 85, 2020 0.71
[32] Yadong Xie, Fan Li, Yue Wu, and Yu Wang. [32]八田清、ファン・リー、ユウ、ユワン。 0.43
HearFit: Fitness monitoring on smart speakers via active acoustic sensing. HearFit: アクティブな音響センシングによるスマートスピーカーのフィットネス監視。 0.86
In IEEE INFOCOM 2021-IEEE Conference on Computer Communications, pages 1–10. ieee では INFOCOM 2021-IEEE Conference on Computer Communications, page 1-10。 0.44
IEEE, 2021. IEEE、2021年。 0.81
[33] Koji Yatani and Khai N Truong. [33] 矢谷光二と ケイン・トゥルーン。 0.57
Bodyscope: A wearable acoustic sensor for activity recognition. Bodyscope: アクティビティ認識のためのウェアラブル音響センサ。 0.80
In Proceedings of the 2012 ACM 2012年度のACMの成果 0.70
Conference on Ubiquitous Computing, pages 341–350, 2012. ユビキタスコンピューティング会議』、341-350頁、2012年。 0.70
[34] Hong-Bo Zhang, Yi-Xiang Zhang, Bineng Zhong, Qing Lei, Lijie Yang, Ji-Xiang Du, and Duan-Sheng Chen. [34]ホン・ボ・チャン、イ・クアン・チャン、ビネン・チョン、清・レイ、リジー・ヤン、ジ・クアン・ドゥ、ドゥアン・シェン。
訳抜け防止モード: [34 ]ホン-ボー・チャン、Yi-Xiang Zhang、 Bineng Zhong, Qing Lei, Lijie Yang, Ji-Xiang Du, And Duan - Sheng Chen
0.77
A comprehensive survey of vision-based human action recognition methods. 総合 視覚に基づく人間の行動認識法の調査。 0.48
Sensors, 19(5), 2019. センサー、19(5)、2019年。 0.73
12 12 0.42
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。