論文の概要、ライセンス

# (参考訳) 児童交通画像からの学校識別を支援する機械学習パイプライン [全文訳有]

A machine learning pipeline for aiding school identification from child trafficking images ( http://arxiv.org/abs/2106.05215v1 )

ライセンス: CC BY 4.0
Sumit Mukherjee, Tina Sederholm, Anthony C. Roman, Ria Sankar, Sherrie Caltagirone, Juan Lavista Ferres(参考訳) 世界中の深刻な問題で交通機関の子供。 毎年、世界中で400万人以上の児童売買の被害者がおり、その多くは子供の性的搾取を目的としている。 英国警察と児童虐待防止を専門とする非営利団体Global Emancipation Networkの協力を得て, インターセプト画像からの子どもの識別を支援する概念実証機械学習パイプラインを開発した。 本研究は,学校の制服を着用している子どもたちが出身校を特定するイメージに焦点を当てる。 機械学習パイプラインが存在しない場合、この膨大な時間と労働集約的なタスクは、法執行機関によって手作業で行われる。 そこで,学校識別プロセスの自動化により,児童識別のこの部分の速度に大きな影響を与えることを期待する。 提案するパイプラインは,2つの機械学習モデルから構成される。i) 子供のイメージが学校の制服を含むかどうかを識別し,ii) 異なる学校の制服アイテム(シャツ,セーター,ブレザーの色/テキストなど)の属性を識別する。 データ収集,ラベル付け,モデル開発,検証プロセス,およびモデル予測を用いた効率的な学校探索戦略について述べる。

Child trafficking in a serious problem around the world. Every year there are more than 4 million victims of child trafficking around the world, many of them for the purposes of child sexual exploitation. In collaboration with UK Police and a non-profit focused on child abuse prevention, Global Emancipation Network, we developed a proof-of-concept machine learning pipeline to aid the identification of children from intercepted images. In this work, we focus on images that contain children wearing school uniforms to identify the school of origin. In the absence of a machine learning pipeline, this hugely time consuming and labor intensive task is manually conducted by law enforcement personnel. Thus, by automating aspects of the school identification process, we hope to significantly impact the speed of this portion of child identification. Our proposed pipeline consists of two machine learning models: i) to identify whether an image of a child contains a school uniform in it, and ii) identification of attributes of different school uniform items (such as color/texture of shirts, sweaters, blazers etc.). We describe the data collection, labeling, model development and validation process, along with strategies for efficient searching of schools using the model predictions.
公開日: Wed, 9 Jun 2021 16:57:58 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
9 ] V C . 9 ] 略称はC。 0.73
s c [ 1 v 5 1 2 5 0 sc [ 1 v 5 1 2 5 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
A machine learning pipeline for aiding school identification 学校識別支援のための機械学習パイプライン 0.81
from child trafficking images Sumit Mukherjee Tina Sederholm 子供の売買画像から Sumt Mukherjee Tina Sederholm 0.72
Anthony C. Roman Anthony C. Roman 0.94
Ria Sankar Ria Sankar 0.85
Sherrie Caltagirone Sherrie Caltagirone 0.85
sherrie@globalemanci pation.ngo Global Emancipation Network sherrie@globalemanci pation.ngo global emancipation network 0.90
USA Juan Lavista Ferres jlavista@microsoft.c om Microsoft Corporation アメリカ Juan Lavista Ferres jlavista@microsoft.c om Microsoft Corporation 0.86
Redmond, USA レドモンド, アメリカ 0.62
{summukhe,tinase,anci ntro,rias}@microsoft.com summukhe,tinase,anci ntro,rias}@microsoft.com 0.88
Microsoft Corporation Redmond, USA マイクロソフト レドモンド, アメリカ 0.58
ABSTRACT Child trafficking in a serious problem around the world. ABSTRACT 世界中の深刻な問題で子供の売買。 0.69
Every year there are more than 4 million victims of child trafficking around the world, many of them for the purposes of child sexual exploitation. 毎年、世界中で400万人以上の児童売買の被害者がおり、その多くは子供の性的搾取を目的としている。 0.71
In collaboration with UK Police and a non-profit focused on child abuse prevention, Global Emancipation Network, we developed a proof-of-concept machine learning pipeline to aid the identification of children from intercepted images. 英国警察と児童虐待防止を専門とする非営利団体Global Emancipation Networkの協力を得て, インターセプト画像からの子どもの識別を支援する概念実証機械学習パイプラインを開発した。 0.83
In this work, we focus on images that contain children wearing school uniforms to identify the school of origin. 本研究は,学校の制服を着用している子どもたちが出身校を特定するイメージに焦点を当てる。 0.70
In the absence of a machine learning pipeline, this hugely time consuming and labor intensive task is manually conducted by law enforcement personnel. 機械学習パイプラインが存在しない場合、この膨大な時間と労働集約的なタスクは、法執行機関によって手作業で行われる。 0.65
Thus, by automating aspects of the school identification process, we hope to significantly impact the speed of this portion of child identification. そこで,学校識別プロセスの自動化により,児童識別のこの部分の速度に大きな影響を与えることを期待する。 0.80
Our proposed pipeline consists of two machine learning models: i) to identify whether an image of a child contains a school uniform in it, and ii) identification of attributes of different school uniform items (such as color/texture of shirts, sweaters, blazers etc.). 提案するパイプラインは,2つの機械学習モデルから構成される。i) 子供のイメージが学校の制服を含むかどうかを識別し,ii) 異なる学校の制服アイテム(シャツ,セーター,ブレザーの色/テキストなど)の属性を識別する。 0.76
We describe the data collection, labeling, model development and validation process, along with strategies for efficient searching of schools using the model predictions. データ収集,ラベル付け,モデル開発,検証プロセス,およびモデル予測を用いた効率的な学校探索戦略について述べる。 0.77
KEYWORDS Child trafficking, AI for Good, Computer Vision. KEYWORDS Child Trafficking, AI for Good, Computer Vision 0.69
ACM Reference Format: Sumit Mukherjee, Tina Sederholm, Anthony C. Roman, Ria Sankar, Sherrie Caltagirone, and Juan Lavista Ferres. ACM参照フォーマット:Sumt Mukherjee、Tina Sederholm、Anthony C. Roman、Ria Sankar、Sherrie Caltagirone、Juan Lavista Ferres。 0.72
2018. A machine learning pipeline for aiding school identification from child trafficking images. 2018. 児童売買画像からの学校識別を支援する機械学習パイプライン。 0.76
In Proceedings of ACM Conference (Conference’17). In Proceedings of ACM Conference (Conference’17) 0.71
ACM, New York, NY, USA, 4 pages. ACM, New York, NY, USA, 4ページ。 0.80
https://doi.org/10.1 145/1122445.1122456 https://doi.org/10.1 145/1122445.1122456 0.29
1 INTRODUCTION According to Human Rights First [4], the total number of victims of global human trafficking is approximately 24.9 million, with 5.5 1 人権ファースト[4]によると、世界の人身売買被害者の総数は約249万人、5.5人である。 0.68
Permission to make digital or hard copies of all or part of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. 本作品のデジタル又はハードコピー又は一部を個人的又は教室で使用するための許可は、利益または商業的利益のためにコピーが作成または配布されず、コピーがこの通知及び第1ページの引用を満たしていることが条件として、無償で付与される。
訳抜け防止モード: この作品の全部又は一部をデジタル又はハードコピーして個人または教室での使用許可 手数料なしで与えられます 利益や商業上の利益のためにコピーは作られない そのコピーには この通知と 最初のページの全文が書かれています
0.82
Copyrights for components of this work owned by others than ACM must be honored. ACM以外の者が所有するこの作品のコンポーネントの著作権を尊重しなければならない。 0.62
Abstracting with credit is permitted. クレジットによる抽象化は許可されている。 0.48
To copy otherwise, or republish, to post on servers or to redistribute to lists, requires prior specific permission and/or a fee. サーバーにポストしたり、リストを再配布したりするには、事前の特定の許可と/または料金が必要である。 0.60
Request permissions from permissions@acm.org. permissions@acm.org からの許可を要求する。 0.65
Conference’17, July 2017, Washington, DC, USA © 2018 Association for Computing Machinery. 2017年7月17日、ワシントンD.C.、米国、2018年、コンピュータ機械学会。 0.58
ACM ISBN 978-x-xxxx-xxxx-x/YY /MM...$15.00 https://doi.org/10.1 145/1122445.1122456 ACM ISBN 978-x-xxxx-x/YY/MM.. .$15.00 https://doi.org/10.1 145/1122445.1122456 0.33
million (25 percent) being children. 子どもは数百万人(25%)。 0.78
Additionally, the percentage of children impacted has nearly doubled in the last 15 years (based on the 2020 UNODC Global Report on Trafficking in Persons [7]). さらに、感染した子供の比率は過去15年間でほぼ倍増している(2020年のUNODC Global Report on Trafficking in Persons [7])。 0.67
Operations of this criminal industry are not easily identifiable, and organizations like the Global Emancipation Network (GEN) identify patterns and build tools to aid law enforcement with taking down human trafficking operations globally. この犯罪産業の運営は容易に特定できないため、global emancipation network (gen) のような組織は、世界規模の人身売買を禁止する法執行機関を支援するためのパターンを特定し、ツールを構築している。
訳抜け防止モード: この犯罪産業の運営は容易には特定できない。 そしてGlobal Emancipation Network(GEN)のような組織は 法執行機関が世界中の人身売買を 取り締まるためのツールを作りました
0.62
In this project we partnered with GEN to provide tools that would enhance the ability of authorities to take meaningful action quickly. このプロジェクトではGENと提携して、当局が迅速に有意義な行動を取る能力を高めるツールを提供しました。
訳抜け防止モード: このプロジェクトではGENと提携しました 当局が迅速に有意義な行動を取る能力を高めるツールを提供する。
0.76
It is pointed out by our law enforcement partners that a large number of images scraped from child trafficking websites and from devices seized from child traffickers contain children in school uniforms. 法執行機関のパートナーは、児童密売サイトや児童密売者から押収されたデバイスから収集された大量の画像には、学校の制服姿の子供が含まれていると指摘した。 0.56
Since uniforms may provide information about the location where the child was abducted from, law enforcement officers currently try to manually identify the school based on descriptive characteristics of the school uniforms (such as color/texture of uniform elements). 制服は、子供が誘拐された場所に関する情報を提供するため、現在警察当局は、学校の制服(制服の色・文章など)の描写的特徴に基づいて、手作業で学校を識別しようとしている。 0.67
Speeding up this process is crucial as criminology experts believe that the first 72 hours is critical when a person has gone missing [1]. 犯罪学の専門家は、ある人が行方不明になった場合、最初の72時間は重要だと考えている[1]。
訳抜け防止モード: このプロセスをスピードアップする 犯罪学の専門家は 最初の72時間は 行方不明になった時に 重要だと信じています [1]
0.82
In order expedite the process of school identification from images, we built a proof-of-concept machine learning pipeline to: i) identify whether an image contains a child wearing a school uniform (uniform prediction), and ii) to identify which school the uniform represents using attribution specific to that school (such as color of shirts, sweaters, blazers etc.). 画像から学校識別のプロセスを迅速化するために, 概念実証型機械学習パイプラインを構築し, i) 学校制服を身に着けた児童を含むか(一様予測), ii) その学校固有の属性(シャツの色, セーター, ブレザーなど)を用いてどの学校を表すかを特定する。 0.69
. In this paper we describe the current training data acquisition, labeling, model development, model validation and deployment approaches. . 本稿では,現在のトレーニングデータ取得,ラベル付け,モデル開発,モデル検証,デプロイメントアプローチについて述べる。 0.86
We also outline some of the current shortcomings of our proof-of-concept pipeline as well as ideas for different school search strategies that can use our models outputs. また、概念実証パイプラインの現在の欠点と、モデル出力を利用できる様々な学校検索戦略のアイデアについても概説する。 0.66
Moving forward, in conjunction with efforts focused on gathering images from a large cross section of schools, this tool could greatly help law enforcement in the task of school identification in images of children. 今後、学校の大きな断面から画像を収集する取り組みと合わせて、このツールは、児童のイメージにおける学校識別のタスクにおいて、法執行機関に大いに役立つだろう。 0.70
2 RELATED WORK Identifying clothing items and their attributes from images is an important problem in computer vision. 2 衣料品とその属性を画像から識別することはコンピュータビジョンにおいて重要な問題である。
訳抜け防止モード: 2 画像から衣料品とその属性を識別する関連作業 コンピュータビジョンにおいて重要な問題です
0.87
The earliest applications of this was in the e-commerce industry, with notable examples such as visual search tools of Pinterest [11, 14] and Amazon [2]. 初期のアプリケーションはeコマース業界で、pinterest[11, 14]やamazon [2]のようなビジュアル検索ツールが有名だった。
訳抜け防止モード: 初期の応用はe-コマース産業であった。 pinterest[11]のビジュアル検索ツールなど、注目すべき例がある。 14 ] と amazon [2 ] である。
0.80
However, such tools were generally trained on massive proprietary datasets and are aimed at identifying semantically similar products/items which is a somewhat different goal than us. しかしながら、このようなツールは一般的に大規模なプロプライエタリなデータセットに基づいてトレーニングされており、意味的に類似した製品やイテムを特定することを目的としています。
訳抜け防止モード: しかし、そのようなツールは一般に巨大なプロプライエタリなデータセットに基づいて訓練された 目指すのは 意味的に類似した製品やアイテムを識別することです。
0.58
To overcome the challenge of lack of public datasets, the last few years saw the publication of several large datasets of clothing パブリックデータセットの欠如を克服するために、過去数年間にいくつかの大規模な衣服データセットが公開された。 0.63
英語(論文から抽出)日本語訳スコア
Conference’17, July 2017, Washington, DC, USA 2017年7月17日、ワシントンd.c.。 0.69
Mukherjee et al Mukherjee et al 0.85
items with rich categorical and segmentation labels [9, 12]. 分類とセグメンテーションのラベルが豊富な項目[9, 12]。 0.77
[12] is now widely used as a standard benchmark dataset for various computer vision tasks related to clothing classification, segmentation of clothing items, as well as generation of synthetic fashion images. 現在[12]は、衣料品分類、衣服品のセグメンテーション、合成ファッション画像の生成に関連する様々なコンピュータビジョンタスクの標準ベンチマークデータセットとして広く利用されている。 0.78
While [9] is used in a highly successful Kaggle competion on image segmentation called iMaterialist [5]. 9] は imaterialist [5] と呼ばれる画像セグメンテーションにおいて非常に成功したカグル法で使用される。 0.69
While several models have been highly successful at the semantic segmentation of clothing items on these benchmark fashion datasets, there are several difficulties with directly applying such models to our setting. これらのベンチマークファッションデータセットにおける衣服のセマンティックセグメンテーションにおいて,いくつかのモデルが成功を収めてきたが,そのようなモデルを我々の設定に直接適用することは困難である。 0.71
Firstly, the semantic labels (clothing item categories) of these benchmark datasets is usually much more fine grained than those required for uniform attribute prediction. 第一に、これらのベンチマークデータセットのセマンティクスラベル(クローズアイテムカテゴリ)は通常、一様属性予測に必要なものよりもずっと細かい粒度である。 0.72
Secondly, since the goal of our task is identification of attributes of clothing items and not the location of the items themselves, the existing models are not directly usable in our setting. 第2に,作業の目的は衣服の属性を識別することであり,商品自体の位置ではないため,既存のモデルを直接使用することはできない。 0.74
Although, an accurate semantic segmentation model could be used as an object detection tool, which could then simplify the task of object attribute detection. しかし、正確なセマンティックセグメンテーションモデルをオブジェクト検出ツールとして使用することで、オブジェクト属性検出のタスクを単純化することができる。 0.82
Finally, due the staged nature of the benchmark images and the drastic difference in image size/quality between these and school uniform images available to us, we found that the pre-trained semantic segmentation models on these benchmark datasets to work rather poorly on our images. 最後に、ベンチマーク画像の段階的な性質と、それらと学校レベルの画像間の画像サイズと品質の劇的な違いから、これらのベンチマークデータセットで事前訓練されたセマンティックセグメンテーションモデルが、画像に対してかなりうまく機能しないことが分かりました。
訳抜け防止モード: そして最後に,ベンチマーク画像の段階的性質と,それらと学校一様画像の画質の劇的な差異から考察した。 これらのベンチマークデータセットでトレーニング済みのセマンティクスセグメンテーションモデルが、イメージに対してかなりうまく機能しないことが分かりました。
0.74
Hence, we focused on acquiring our own labeled dataset, and developed machine learning models specific to our task. そのため、ラベル付きデータセットの取得に注力し、タスク固有の機械学習モデルを開発しました。 0.71
3 MACHINE LEARNING PIPELINE 3機械学習パイプライン 0.59
OVERVIEW Our machine learning pipeline is modeled after the decision making process of human law enforcement officers. OVERVIEW 私たちの機械学習パイプラインは、人間法執行官の意思決定プロセスに基づいてモデル化されています。 0.72
In the absence of automation tools, officers first screen images for presence of uniforms and then identify uniform attributes, which are then used to look up schools. 自動化ツールの欠如の中で、警官はまず制服の存在を画像に表示し、制服属性を識別し、それを学校を探すために使用する。 0.63
Geographical information about location of acquisition of images is also utilized to filter schools, since a large number of schools may have similar looking uniforms. 画像の取得場所に関する地理情報は、多くの学校が類似した制服を持っているため、学校をフィルタリングするためにも使われる。 0.75
In this initial pipeline, we only focus on the first two tasks undertaken by the law enforcement officers. この最初のパイプラインでは、法執行官による最初の2つのタスクのみに焦点を当てます。 0.66
To replicate the process undertaken by the officers, the goal of our modeling endeavor was several fold: i) to identify whether an image contains a child wearing a school uniform, ii) to identify which school the uniform belongs to, and iii) to do so in a manner that can scale to new schools. 警察官が行なったプロセスを再現するため, モデル化の目的は, 学校制服を身に着けている子供を含むイメージを識別すること, 制服がどの学校に属しているかを特定すること, および, 新校に拡大可能な方法で行うこと, の2つであった。 0.73
To achieve this we built a machine learning pipeline comprising of two modules: i) a uniform presence detection (uniform prediction) module, and ii) a uniform attribute identification module. これを実現するために,我々は,一様存在検出(一様予測)モジュールと一様属性識別モジュールという2つのモジュールからなる機械学習パイプラインを構築した。 0.70
Below, we describe each machine learning module. 以下は、各機械学習モジュールについて説明する。 0.68
3.1 Uniform classification model The uniform classification task is posed as a binary prediction task, where the model simply outputs whether it detects a uniform in the image (class 1) or does not detect a uniform in the image (class 0). 3.1 一様分類モデル 一様分類タスクは二項予測タスクとして設定され、一様分類タスクは、画像中の一様検出(クラス1)、又は画像中の一様検出(クラス0)を単純に出力する。
訳抜け防止モード: 3.1 統一分類モデル 一様分類タスクを二元予測タスクとしてポーズする。 モデルが画像の均一性を検出するかどうかを単純に出力する(クラス1 )。 または、画像(クラス0)の均一を検知しない。
0.80
To achieve this, we use a developed deep learning based model that takes a 224×224 pixel RGB image and produces the probability of an image belonging to class 1 as the output. これを実現するために,224×224ピクセルのRGB画像を取得し,クラス1に属する画像の確率を出力として生成する深層学習モデルを開発した。 0.86
We utilized the output of a pre-trained machine learning model called VGG16 [13] which was trained on a large image classification dataset called ImageNet [8]. imagenet [8]と呼ばれる大規模な画像分類データセットでトレーニングされたvgg16[13]と呼ばれる事前学習された機械学習モデルの出力を利用した。 0.72
This output was then passed through as the input to a fully connected network which output the probability of an この出力は入力として完全に接続されたネットワークに渡され、確率が出力される。 0.86
Figure 1: Overview of uniform classification module. 図1: 統一分類モジュールの概要。 0.72
The image is first passed through a pre-trained VGG16 model (trained on ImageNet). 画像は、最初に訓練済みのVGG16モデル(ImageNetでトレーニング)に渡される。 0.78
The output of the pre-trained model (from an embedding layer) is then flattened and passed through a fully connected network, which outputs a scalar probability as the output. 事前訓練されたモデル(埋め込み層から)の出力はフラット化し、完全に接続されたネットワークを通過し、スカラー確率を出力として出力する。 0.83
image containing an uniform. ユニフォームを含む画像。 0.59
The use of a pre-trained model in conjunction with a trainable model (the fully connected network, in this case) is common practice in data sparse classification scenarios like ours. トレーニング可能なモデル(この場合、完全に接続されたネットワーク)と組み合わせて事前トレーニングされたモデルを使用することは、私たちのようなデータスパース分類シナリオでは一般的なプラクティスです。
訳抜け防止モード: 訓練可能なモデルと併用した事前訓練モデルの使用 (この場合、完全接続ネットワーク) 私たちのようなデータスパース分類シナリオではよくあることです。
0.79
This has been shown to significantly improve the classification performance in many settings [10]. これは多くの設定で[10]の分類性能を大幅に改善することが示されている。 0.76
Note that VGG16 one of many pre-trained models that can be used for this task. VGG16は、このタスクに使用できる多くの事前訓練モデルの1つである。 0.72
Other pre-trained models such as InceptionV3 or Resnet-50 can also be used here and were seen to have similar performance. InceptionV3やResnet-50のような事前訓練されたモデルも同様の性能を持つ。 0.68
Also note that the image size of 224 × 224 pixel was chosen for this stage because that is the expected input image size for VGG16. また、vgg16の入力画像サイズが期待されているため、224×224ピクセルの画像サイズが選択された。 0.68
3.2 Uniform attribute prediction model 3.2 一様属性予測モデル 0.74
Figure 2: Overview of multi-label multi-class attribute prediction module. 図2:マルチラベルのマルチクラス属性予測モジュールの概要。 0.78
The image is first passed through a series of convolutional layers and then flattened. 画像はまず一連の畳み込み層を通過し、その後平坦化する。 0.66
The flattened vector is them passed through several fully connected layers (abbreviated as FCN here), one for each clothing item. 平坦なベクトルは、複数の完全に連結された層(ここでは FCN と略す)に渡される。 0.65
The output of the fully connected layers is a vector of probabilities of each color. 完全に連結された層の出力は、各色の確率のベクトルである。 0.79
The goal of the uniform attribute prediction model is to predict characteristics of certain clothing items that describe school uniforms. 均一属性予測モデルの目的は、学校の制服を記述する特定の衣服の特徴を予測することである。 0.79
Due to limited training data, we have limited out clothing item categories to: i) Shirt, ii) Trousers, iii) Outer coat, iv) Jumper/Sweater/Cardi gan, v) Dress, vi) Tie. トレーニングデータに制限があるため, 衣料品のカテゴリーは, i) Shirt, ii) Trousers, iii) Outer coat, iv) Jumper/Sweater/Cardi gan, v) Dress, vi) Tieに制限されている。 0.87
The list of clothing items is expected to expand slightly, once we have more training data. トレーニングデータが増えると、衣料品のリストはわずかに拡大すると予想されている。 0.79
In the current iteration of the model, we will be predicting the base colors for these clothing items from the following colors: i) Red/Brown, ii) Yellow/Orange, iii) Green, iv) Blue/Purple, v) White, and vi) Black/Grey, vii) No color (meaning that the clothing item is not present in the image). 現在のモデルでは、以下の色から、これらの衣料品の基色を予測する。 (i) Red/Brown, ii) Yellow/Orange, iii) Green, iv) Blue/Purple, v) White, and vi) Black/Grey, vii) 色なし (画像に衣服が存在しないことを意味する)。 0.85
In future iterations of the model (once we have more training data) we will also including textures (such as stripes, polka dots etc.). モデルの将来的なイテレーション(より多くのトレーニングデータがあれば)には、テクスチャ(ストライプやpolkaドットなど)も含まれます。 0.71
The current model architecture is a multi-label multi-class deep learning model comprising of several convolutions layers followed by separate fully connected layer networks for each clothing item. 現在のモデルアーキテクチャは、複数の畳み込み層からなるマルチラベルのマルチクラスディープラーニングモデルで、各衣料品ごとに別々の完全接続層ネットワークが続く。 0.82
The output of each FCN module, is 各FCNモジュールの出力は 0.57
英語(論文から抽出)日本語訳スコア
A machine learning pipeline for aiding school identification from child trafficking images 児童交通画像からの学校識別を支援する機械学習パイプライン 0.76
Conference’17, July 2017, Washington, DC, USA 2017年7月17日、ワシントンd.c.。 0.69
the probability for each color (and absence of the clothing item). それぞれの色(および衣服項目の欠如)の確率。 0.63
Note that in our multi-label multi-class setting, the clothing items are the labels and the colors are the classes. マルチレーベルのマルチクラス設定では、衣料品はラベルであり、色はクラスであることに注意してください。 0.68
4 DATA ACQUISITION AND LABELING 4.1 Uniform classification The uniform classification model was trained on a total of 2000 images. 4 データの取得とLABEING 4.1 均一分類 均一分類モデルは2000枚の画像に基づいて訓練された。 0.79
Half of the images were images of children in casual wear collected by the GEN volunteers from their friends/family (with their permission). 画像の半分は、元ボランティアが友人や家族から(許可を得て)集めたカジュアルな服装の子供の写真だった。 0.69
The remaining images were from 10 UK schools of children wearing school uniforms (100 images each) with their permission. 残りの写真は、学校の制服(それぞれ100枚)を身に着けているイギリスの10の学校から許可を得たものだ。 0.60
All images had the faces of the children removed. すべての画像には子供の顔が取り除かれました。 0.73
While the dataset was balanced in terms of labels, the dataset was somewhat imbalanced in other ways such as gender or uniform types. データセットはラベルの観点からバランスが取れていたが、データセットは性別や均一型といった他の方法でバランスが取れなかった。 0.67
In this initial prototype, due to limited availability of labeled data, we ignore such considerations but as we have more data we can consider approaches such as stratified sampling to create a well balanced training dataset. この最初のプロトタイプでは、ラベル付きデータの可用性が限られているため、そのような考慮は無視できますが、より多くのデータがあるため、十分にバランスのとれたトレーニングデータセットを作成するための階層化サンプリングのようなアプローチも検討できます。
訳抜け防止モード: このプロトタイプでは、ラベル付きデータの可用性が限られているため、そのような考慮は無視する。 しかし より多くのデータがあるので 階層化サンプリングや バランスの取れたトレーニングデータセットを作成します
0.63
4.2 Uniform attribute prediction For the uniform attribute prediction task, several thousand images were collected by scraping websites of 80 randomly chosen schools in the UK. 4.2 均一属性予測 均一属性予測タスクでは、イギリスの80のランダムに選択された学校のウェブサイトから数千の画像が収集された。 0.71
Individual persons were then identified and separated in each image using a publicly available object recognition tool called Mask-RCNN [6]. 次に,Mask-RCNN [6]と呼ばれる公開オブジェクト認識ツールを用いて,各画像の個人識別と分離を行った。 0.78
This step was done since most images of trafficked children contain only one child according to law enforcement. このステップは、法執行機関によると、密輸された子供のほとんどの画像には1人の子供しか含まれていないため行われた。
訳抜け防止モード: このステップは 法執行機関によると、人身売買された子供の画像のほとんどは1人の子供しか持たない。
0.56
This led to approximately ten thousand images containing single individuals. これにより、個々の人物を含む約1万枚の画像が得られた。 0.47
Multiple volunteers from GEN (Global Emancipation Network) then used Azure Labeling Services [3] to label each image with the afore mentioned clothing and color combinations (texture was also collected but not used in the current modeling). gen(global emancipation network)の複数のボランティアがazure labeling services [3]を使って、それぞれのイメージに、前述の衣服と色の組み合わせをラベル付けした(テキストも収集されたが、現在のモデリングでは使われなかった)。 0.73
To reduce human errors, each label was verified by at least two volunteers. 人的ミスを減らすため、各ラベルは少なくとも2人のボランティアによって検証された。 0.64
Images that were of very poor resolution were discarded, which left four thousand usable images. 解像度の低い画像は破棄され、使用可能な画像は4万枚を残した。 0.70
5 MODEL EVALUATION 5.1 Uniform classification For the uniform classification model, we performed two separate validations. 5 モデル評価 5.1 統一分類モデルの統一分類を行い, 2 つの検証を行った。 0.74
The first validation focused on the models performance on a held out test dataset. 最初の検証は、保持されたテストデータセットのモデルパフォーマンスに焦点を当てたものだ。 0.63
To this end, we randomly selected 80% of the available data for training our deep learning model(s) and the remaining 20% for model evaluation. そこで我々は,ディープラーニングモデルを学習するためのデータのうち80%と,モデル評価のための残りの20%をランダムに選択した。 0.86
This 20% was not used in any way during the model training process. この20%は、モデルトレーニングプロセスでは一切使われなかった。 0.76
We found the uniform prediction model to have a 96% accuracy on it’s held-out test dataset. 統一予測モデルは、保持テストデータセット上で96%の精度を持つことが分かりました。 0.78
This is a reasonably high number for a balanced binary classification task, where the baseline accuracy is 50%. これは、ベースラインの精度が50%であるバランスのとれたバイナリ分類タスクにとって、合理的に高い数である。 0.66
For the next validation, we wanted to test robustness of the uniform classification model on schools it has not scene before. 次の検証では、これまでにない学校における一様分類モデルの堅牢性を検証したかった。 0.61
To this end, we created 10 training sets leaving one school out in each i.e. この目的のために、各i.e.に1つの学校を離れる10のトレーニングセットを作成しました。 0.55
using 9 schools. We then created 2 separate groups of tests sets: i) 10 test sets using non-uniform images and uniform images from the same 9 schools as each training set, ii) 10 test sets using non-uniform images and uniform images from the left out school from each training set. 9つの学校がある。 次に,2つのテストセットを作成した:i)非一様画像を用いた10のテストセットと,各トレーニングセットと同じ9つの学校からの均一画像,ii)非一様画像を用いた10のテストセット,および各トレーニングセットから左の学校からの一様画像。 0.66
The ratio of uniform to nonuniform images was kept constant in both cases. 両症例とも均一画像と非均一画像の比率は一定であった。 0.70
We report the Figure 3: Comparison of uniform classification model performance using different metrics on two different test scenarios: (top) test sets are a randomly held out split of the data, (bottom) models are trained on all but one school and test set contains the one school that wasn’t used during model training. 報告します 図3: 2つの異なるテストシナリオで異なるメトリクスを使用した一様分類モデルのパフォーマンスの比較: (トップ)テストセットはランダムに保持されたデータの分割であり、(ボット)モデルは1つの学校を除いてトレーニングされ、テストセットはモデルトレーニング中に使用されなかった1つの学校を含む。 0.73
results in Figure 3, demonstrating that our uniform classification models perform similarly well on both test scenarios indicating robust performance on unseen schools. 図3では、我々の一様分類モデルも同様に、両テストシナリオにおいて、目に見えない学校での堅牢なパフォーマンスを示す。
訳抜け防止モード: 図3で示します。 我々の一様分類モデルは 両方のテストシナリオで 同様にうまく機能する 見えない学校では 堅牢な性能を示す
0.76
Despite the results showing model robustness, it should be noted that due to the limited number of schools used in training, such a model may not generalize to all unseen schools. モデルロバスト性を示す結果にもかかわらず、訓練に使用される学校数が限られているため、このようなモデルは見知らぬすべての学校に一般化できないことに注意する必要がある。 0.57
However, we note here that the goal of this work is to develop a proof-of-concept prototype and in a real-world deployment scenario the model will be trained on a much broader set of schools. しかし、本研究の目標は概念実証プロトタイプを開発することであり、実際の展開シナリオでは、モデルをより広範な学校のセットでトレーニングすることである。 0.70
5.2 Uniform attribute prediction 5.2 統一属性予測 0.69
Figure 4: Overview of single-label multi-class attribute prediction module. 図4: single-label multi-class attribute predictionモジュールの概要。 0.81
The image is first passed through a series of convolutional layers and then flattened. 画像はまず一連の畳み込み層を通過し、その後平坦化する。 0.66
The flattened vector is them passed through a fully connected layer module. 平坦化ベクトルは、完全連結層モジュールを通過するベクトルである。 0.75
The output of the fully connected layers is a vector of probabilities of each color for clothing item 𝑖. 完全に連結された層の出力は、衣料品のそれぞれの色の確率のベクトルである。 0.80
The convolutional and fully connected layer module architectures are identical to the multi-label multi-class model. 畳み込みおよび完全連結層モジュールアーキテクチャは、マルチラベルマルチクラスモデルと同一である。 0.68
For the attribute prediction task, we randomly selected 80% of the available data for training our model and the remaining 20% for model evaluation. 属性予測タスクでは,モデルの学習に必要なデータの80%とモデル評価のための残りの20%をランダムに選択した。 0.87
Since each clothing category has multiple color options and the relative abundance of each color is different in the dataset, the baseline accuracy is no longer 50%. 各衣服カテゴリには複数の色オプションがあり、データセットでは各色の相対的な数が異なるため、ベースライン精度は50%未満である。 0.84
In such an imbalanced multi-label prediction problem, there are variety of このような不均衡なマルチラベル予測問題には、様々な種類がある。 0.57
英語(論文から抽出)日本語訳スコア
Conference’17, July 2017, Washington, DC, USA 2017年7月17日、ワシントンd.c.。 0.69
Mukherjee et al Mukherjee et al 0.85
alternative baselines possible. 代替のベースラインが可能です。 0.54
We picked the baseline that predicts colors randomly with the same proportion as the colors’ abundance in the test dataset (for each clothing item independently). テストデータセット(各衣料品ごとに独立して)の色の量と同じ比率でランダムに色を予測するベースラインを選択しました。 0.84
Another baseline was a single label multi-class model (Figure 4) for each clothing item (label) seperately. もう一つのベースラインは、各衣料品(ラベル)の単一ラベルのマルチクラスモデル(図4)である。 0.77
The the convolutional and FCN modules were identical to the multi-label multi-class model. 畳み込みモジュールとFCNモジュールはマルチラベルのマルチクラスモデルと同一であった。 0.75
As Figure 5: Comparison of attribute prediction model performance with different baselines. として 図5: 属性予測モデルのパフォーマンスと異なるベースラインの比較。 0.65
seen in Figure 5, our multi-label multi-class model does better than both baselines on all the clothing item categories. 図5に示すように、当社のマルチラベルマルチクラスモデルは、すべての衣料品カテゴリのベースラインよりも優れています。 0.79
For several clothing items (such as shirts or sweaters) we see a significant improvement over the random baseline. いくつかの衣料品(シャツやセーターなど)では、ランダムなベースラインよりも大幅に改善されている。 0.67
Not surprisingly, clothing items where one color (or absence of the item) doesn’t dominate the examples, our model shows a larger improvement over the random baseline. 意外なことに、1つの色(またはアイテムの欠如)が実例を支配しない衣服は、我々のモデルはランダムなベースラインよりも大幅に改善されている。 0.75
This indicates that as we will have more examples of each color for each clothing item, the model performance is likely to significantly improve over the baseline. これは、各衣料品について各色についてより多くの例を示すので、モデルの性能がベースラインよりも大幅に向上することを示している。 0.69
To this end, Global Emancipation Network has collected approximately one hundred thousand more images (which are yet unlabeled). この目的のために、global emancipation networkは、約10万枚の画像(まだラベルされていない)を収集した。 0.64
Adding these images to the training dataset is likely to significantly improve the model. トレーニングデータセットにこれらのイメージを追加することで、モデルを大幅に改善する可能性が高い。 0.60
6 DEPLOYMENT AND KNOWN LIMITATIONS We deployed out model as a docker container that is capable of running entirely offline. 6 DePLOYMENTとKNOWNの制限 完全にオフラインで実行できるdockerコンテナとしてモデルをデプロイしました。 0.75
The major known limitation of our current model is that the predictions are poor for large images (since most of the training images were relatively small 20-100 kb). 現在のモデルの主要な制限は、大きな画像では予測が不十分であることです(トレーニング画像のほとんどが20-100kbと比較的小さいため)。 0.71
We hope to remedy this by re-training the model on a larger and more diverse set of images. 私たちは、より大きく多様なイメージのセットでモデルをトレーニングすることで、これを改善したいと考えています。 0.56
7 FUTURE WORK We are currently working on developing a continuous update pipeline for our machine learning pipeline. 7 Future WORK 私たちは現在、マシンラーニングパイプライン用の継続的アップデートパイプラインの開発に取り組んでいます。 0.74
Briefly, the goal is to enable continuous re-training of the model as more data and labels are collected. 簡単に言うと、より多くのデータとラベルが収集されるにつれて、モデルの継続的な再トレーニングを可能にすることが目標だ。
訳抜け防止モード: 簡単に言うと 目標は より多くのデータとラベルが収集されると、モデルの継続的な再トレーニングを可能にする。
0.56
While this paper has focused on developing the machine learning portion of the proposed school identification framework, another related but important component is the school search using the predictions of the machine learning models. 本稿では,提案された学校識別フレームワークの機械学習部分の開発に焦点を絞ったが,関連するが重要な要素は,機械学習モデルの予測を用いた学校探索である。 0.86
Notably, using approaches to make the search process fault tolerant, could substantially reduce the human verification required for our predicted results. 特に、検索プロセスのフォールトトレラント化にアプローチを使うことで、予測結果に必要な人的検証を大幅に削減できる。 0.66
8 CONCLUSION In this study, we demonstrate how the use of a well-defined machine learning pipeline can expedite the work of local law enforcement 8 ConCLUSION この研究で、明確に定義された機械学習パイプラインの使用が地方法執行機関の仕事の迅速化を実証する。 0.71
authorities by identifying a specific school uniform. 特定の学校の制服を 特定することで 0.70
Our proof-ofconcept pipeline comprises of a uniform classification to identify whether an image contains a child in uniform, and a uniform attribute prediction model which predicts the color (or absence) of different uniform relevant clothing items. この概念実証パイプラインは、画像が一様の子供を含むかどうかを識別する一様分類と、異なる一様の関連する衣類の色(または不在)を予測する一様属性予測モデルとからなる。 0.72
We explained the rationale for choosing such a pipeline as well as our choice of the various models. このようなパイプラインを選択する理由と、さまざまなモデルの選択について説明した。 0.71
Furthermore, we tested the different components of our pipelines on various test scenarios and showed superior performance against relevant baselines. さらに、さまざまなテストシナリオでパイプラインのさまざまなコンポーネントをテストし、関連するベースラインに対して優れたパフォーマンスを示しました。 0.70
Finally, we explain the deployment process as well as known issues with our pipeline. 最後に、デプロイメントプロセスと、パイプラインに関する既知の問題を説明します。 0.59
The methodology and classification models presented in this study can easily be expanded to regions where school uniforms are common, such as India. 本研究で提示される方法論と分類モデルは,インドなど学校の制服が一般的である地域に容易に拡張することができる。 0.77
However, the adoption of such a pipeline might face challenges in countries where school uniforms are uncommon. しかし、このようなパイプラインの採用は、学校の制服が一般的でない国では困難に直面する可能性がある。 0.45
We anticipate the current pipeline provides limited ability for law enforcement to re-use the model for the other purposes. 現在のパイプラインは、法執行機関が他の目的のためにモデルを再利用する限られた能力を提供します。 0.54
However, due to valid concerns about re-usability of machine learning models by law enforcement for reasons other than ones they were developed for, any practical deployment of this pipeline will first go through legally binding ’limited use’ agreements with agencies using the pipeline. しかし、法執行機関による機械学習モデルの再利用可能性に関する正当な懸念から、このパイプラインの実際的な展開は、まず、このパイプラインを使用する機関との「限定使用」協定を法的に拘束することで行われる。 0.69
REFERENCES [1] [n.d.]. 参照 [1] [n.d.] 0.67
https://abcnews.go.c om/US/72-hours-missi ng-persons-investiga tioncritical-crimino logy-experts/story?i d=58292638. https://abcnews.go.c om/us/72-hours-missi ng-persons-investiga tion critical-criminology -experts/story?id=58292638。 0.23
https://abcnews.go.c om/US/72hours-missin g-persons-investigat ion-critical-crimino logy-experts/story?i d= 58292638. https://abcnews.go.c om/us/72hours-missin g-persons-investigat ion-critical-crimino logy-experts/story?i d=58292638。 0.27
[2] [n.d.]. [2][n.d.]. 0.84
https://aws.amazon.c om/campaigns/buildon -nordics/visualsearc h/. https://aws.amazon.c om/campaigns/buildon -nordics/visualsearc h/ 0.31
https: //aws.amazon.com/cam paigns/buildon-nordi cs/visualsearch/. https: aws.amazon.com/campa igns/buildon-nordics /visualsearch/ 0.53
[3] [n.d.]. [3] [n.d.] 0.85
https://docs.microso ft.com/en-us/azure/m achine-learning/how- to-createlabeling-pr ojects. https://docs.microso ft.com/en-us/azure/m achine-learning/how- to-createlabeling-pr ojects 0.21
https://docs.microso ft.com/en-us/azure/m achine-learning/ how-to-create-labeli ng-projects. https://docs.microso ft.com/en-us/azure/m achine-learning/How- to-create-labeling-p rojects。 0.22
[4] [n.d.]. https://www.humanrig htsfirst.org/resourc e/human-trafficking- numbers. 4] [n.d.] https://www.humanrig htsfirst.org/resourc e/human-trafficking- numbers 0.50
https://www.humanrig htsfirst.org/resourc e/human-trafficking- numbers. https://www.humanrig htsfirst.org/resourc e/human-trafficking- numbers 0.32
[5] [n.d.]. https://www.kaggle.c om/c/imaterialist-fa shion-2019-FGVC6. 5] [n.d.] https://www.kaggle.c om/c/imaterialist-fa shion-2019-fgvc6。 0.48
https://www. https://www.twitter. com 0.39
kaggle.com/c/imateri alist-fashion-2019-F GVC6. kaggle.com/c/imateri alist-fashion-2019-f gvc6 0.20
[6] Waleed Abdulla. [6]Waleed Abdulla。 0.74
2017. Mask R-CNN for object detection and instance segmenta- 2017. オブジェクト検出用マスクr-cnnとインスタンスセグメンタ- 0.78
tion on Keras and TensorFlow. KerasとTensorFlowのオプション。 0.63
https://github.com/m atterport/Mask_RCNN. https://github.com/m atterport/Mask_RCNN 0.41
[7] Vanessa Bouché and Madeleine Bailey. 7]ヴァネッサ・ブーシェとマドレーヌ・ベイリー 0.55
2020. The UNODC Global Report on Trafficking in Persons: An Aspirational Tool with Great Potential. 2020. UNODC Global Report on Trafficking in Persons: an Aspirational Tool with Great potential 0.78
The Palgrave International Handbook of Human Trafficking (2020), 163–176. The Palgrave International Handbook of Human Trafficking (2020), 163–176。 0.86
[8] Jia Deng, Wei Dong, Richard Socher, Li-Jia Li, Kai Li, and Li Fei-Fei. [8]Jia Deng、Wei Dong、Richard Socher、Li-Jia Li、Kai Li、Li Fei-Fei。 0.79
2009. Imagenet: A large-scale hierarchical image database. 2009. Imagenet: 大規模な階層型イメージデータベース。 0.85
In 2009 IEEE conference on computer vision and pattern recognition. 2009年、ieee conference on computer vision and pattern recognition。 0.72
Ieee, 248–255. [9] Sheng Guo, Weilin Huang, Xiao Zhang, Prasanna Srikhanta, Yin Cui, Yuan Li, Hartwig Adam, Matthew R Scott, and Serge Belongie. 248-255頁。 9]Sheng Guo, Weilin Huang, Xiao Zhang, Prasanna Srikhanta, Yin Cui, Yuan Li, Hartwig Adam, Matthew R Scott, Serge Belongie。 0.76
2019. The imaterialist fashion attribute dataset. 2019. imaterialist fashion attribute データセット。 0.81
In Proceedings of the IEEE/CVF International Conference on Computer Vision Workshops. IEEE/CVF International Conference on Computer Vision Workshops に参加して 0.83
0–0. [10] Minyoung Huh, Pulkit Agrawal, and Alexei A Efros. 0–0. 10]Minyoung Huh,Pulkit Agrawal,Alexei A Efros。 0.65
2016. What makes ImageNet 2016. ImageNetの作り方 0.77
good for transfer learning? 転校学習に役立ちますか? 0.63
arXiv preprint arXiv:1608.08614 (2016). arXiv preprint arXiv:1608.08614 (2016)。 0.77
[11] Yushi Jing, David Liu, Dmitry Kislyuk, Andrew Zhai, Jiajing Xu, Jeff Donahue, and Sarah Tavel. 11]Yushi Jing、David Liu、Dmitry Kislyuk、Andrew Zhai、Jiajing Xu、Jeff Donahue、Sarah Tavel。
訳抜け防止モード: 【11 ]Yushi Jing, David Liu, Dmitry Kislyuk, Andrew Zhai氏、Jiajing Xu氏、Jeff Donahue氏、Sarah Tavel氏。
0.82
2015. Visual search at pinterest. 2015. pinterestのビジュアル検索。 0.78
In Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining に参加して 0.75
1889–1898. 1889–1898. 0.71
[12] Ziwei Liu, Ping Luo, Shi Qiu, Xiaogang Wang, and Xiaoou Tang. [12]Ziwei Liu、Ping Luo、Shi Qiu、Xiaogang Wang、Xiaoo Tang。 0.65
2016. DeepFashion: Powering Robust Clothes Recognition and Retrieval with Rich Annotations. 2016. deepfashion: リッチアノテーションによるロバストな服装認識と検索を可能にする。 0.72
In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR). In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 0.74
[13] Hussam Qassim, Abhishek Verma, and David Feinzimer. Hussam Qassim氏、Abhishek Verma氏、David Feinzimer氏。 0.63
2018. Compressed residual-VGG16 CNN model for big data places image recognition. 2018. 画像認識のための圧縮残差VGG16 CNNモデル 0.71
In 2018 IEEE 8th Annual Computing and Communication Workshop and Conference (CCWC). 2018年、IEEE 8th Annual Computing and Communication Workshop and Conference (CCWC)。 0.81
IEEE, 169–175. IEEE 169-175。 0.89
[14] Andrew Zhai, Hao-Yu Wu, Eric Tzeng, Dong Huk Park, and Charles Rosenberg. 14]Andrew Zhai, Hao-Yu Wu, Eric Tzeng, Dong Huk Park, Charles Rosenberg。 0.78
2019. Learning a unified embedding for visual search at pinterest. 2019. pinterestでビジュアル検索のための統一埋め込みを学ぶ。 0.85
In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 第25回ACM SIGKDD国際知識発見・データマイニング会議に参加して 0.68
2412–2420. 2412–2420. 0.71
         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。