論文の概要: Machine Learning for Tangible Effects: Natural Language Processing for
Uncovering the Illicit Massage Industry & Computer Vision for Tactile Sensing
- arxiv url: http://arxiv.org/abs/2309.03470v1
- Date: Thu, 7 Sep 2023 04:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-08 14:17:34.162089
- Title: Machine Learning for Tangible Effects: Natural Language Processing for
Uncovering the Illicit Massage Industry & Computer Vision for Tactile Sensing
- Title(参考訳): タンジブルエフェクトのための機械学習:無数のマッサージ産業を明らかにする自然言語処理と触覚のためのコンピュータビジョン
- Authors: Rui Ouyang
- Abstract要約: 私は自然言語処理を使ってアメリカのマッサージ産業を監視しています。
触覚センサーの製作におけるコンピュータビジョンの役割についても検討する。
ウェブカメラとプリントされた基準マーカーを使って、低コストの6軸力トルクセンサーを作る方法を示します。
- 参考スコア(独自算出の注目度): 1.4685355149711299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: I explore two questions in this thesis: how can computer science be used to
fight human trafficking? And how can computer vision create a sense of touch?
I use natural language processing (NLP) to monitor the United States illicit
massage industry (IMI), a multi-billion dollar industry that offers not just
therapeutic massages but also commercial sexual services. Employees of this
industry are often immigrant women with few job opportunities, leaving them
vulnerable to fraud, coercion, and other facets of human trafficking.
Monitoring spatiotemporal trends helps prevent trafficking in the IMI. By
creating datasets with three publicly-accessible websites: Google Places,
Rubmaps, and AMPReviews, combined with NLP techniques such as bag-of-words and
Word2Vec, I show how to derive insights into the labor pressures and language
barriers that employees face, as well as the income, demographics, and societal
pressures affecting sex buyers. I include a call-to-action to other researchers
given these datasets. I also consider how to creating synthetic financial data,
which can aid with counter-trafficking in the banking sector. I use an
agent-based model to create both tabular and payee-recipient graph data.
I then consider the role of computer vision in making tactile sensors. I
report on a novel sensor, the Digger Finger, that adapts the Gelsight sensor to
finding objects in granular media. Changes include using a wedge shape to
facilitate digging, replacing the internal lighting LEDs with fluorescent
paint, and adding a vibrator motor to counteract jamming. Finally, I also show
how to use a webcam and a printed reference marker, or fiducial, to create a
low-cost six-axis force-torque sensor. This sensor is up to a hundred times
less expensive than commercial sensors, allowing for a wider range of
applications. For this and earlier chapters I release design files and code as
open source.
- Abstract(参考訳): 私はこの論文で2つの疑問を探っている。コンピュータサイエンスは人間の身売買とどのように戦うことができるのか?
コンピュータビジョンはどのように触感を生み出すのか?
私は自然言語処理(NLP)を使って、治療マッサージだけでなく商業性サービスも提供する数十億ドル規模の産業である米国違法マッサージ産業(IMI)を監視しています。
この業界の従業員はしばしば、仕事の機会がほとんどなく移民の女性であり、詐欺や強制労働、その他の人身売買に弱い。
時空間トレンドの監視は、IMIにおけるトラフィックの防止に役立つ。
Google Places、Rubmaps、AMPReviewsの3つの公開ウェブサイトでデータセットを作成することで、bag-of-wordsやWord2VecといったNLP技術と組み合わせることで、従業員が直面する労働のプレッシャーや言語障壁、そして収入、人口統計、そして性購入に影響を与える社会的プレッシャーに対する洞察を導き出す方法を示します。
これらのデータセットには、他の研究者へのコール・トゥ・アクションが含まれています。
また、銀行セクターの対トラフィングに役立つ合成金融データの作成についても検討しています。
私はエージェントベースのモデルを使って表グラフデータと有償グラフデータの両方を作成します。
次に、触覚センサーの製造におけるコンピュータビジョンの役割を考えます。
私は、Gelsightセンサーをグラニュラーメディア中の物体に適応させる新しいセンサー、Digger Fingerについて報告します。
内部照明ledを蛍光塗料に置き換えたり、振動子モーターを追加してジャミングに対抗したりといった変更も行われた。
最後に、webカメラとプリントされた参照マーカー(fiducial)を使って低コストの6軸力トルクセンサーを作る方法を紹介します。
このセンサーは商用センサーの100倍も安いので、幅広い用途に使える。
この章とそれ以前の章では、デザインファイルとコードをオープンソースとしてリリースしています。
関連論文リスト
- DexTouch: Learning to Seek and Manipulate Objects with Tactile Dexterity [12.508332341279177]
触覚を用いて物体を探索・操作する多指ロボットシステムを提案する。
これを実現するために、ロボットハンドの片側に二元触覚センサを実装し、Sim2Realギャップを最小限に抑える。
視覚情報のない環境においても,触覚センサを用いた物体探索と操作が可能であることを示す。
論文 参考訳(メタデータ) (2024-01-23T05:37:32Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - See What the Robot Can't See: Learning Cooperative Perception for Visual
Navigation [11.943412856714154]
センサをトレーニングして、関連する視点情報を移動ロボットにエンコードし、伝達する。
我々は、全てのセンサーが目標への最短経路に沿って方向を予測できるようにするという課題を克服する。
その結果,センサとロボットの通信により,SPLの最大2.0倍の改善が達成された。
論文 参考訳(メタデータ) (2022-08-01T11:37:01Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - Classifying Human Activities with Inertial Sensors: A Machine Learning
Approach [0.0]
HAR(Human Activity Recognition)は、現在進行中の研究課題である。
医療サポート、スポーツ、フィットネス、ソーシャルネットワーキング、ヒューマン・コンピュータ・インタフェース、シニア・ケア、エンターテイメント、監視などの分野に応用されている。
スマートフォンの慣性センサデータを用いて,人間活動認識のための機械学習と深層学習のアプローチを検討した。
論文 参考訳(メタデータ) (2021-11-09T08:17:33Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。