論文の概要: Machine Learning for Tangible Effects: Natural Language Processing for
Uncovering the Illicit Massage Industry & Computer Vision for Tactile Sensing
- arxiv url: http://arxiv.org/abs/2309.03470v1
- Date: Thu, 7 Sep 2023 04:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-08 14:17:34.162089
- Title: Machine Learning for Tangible Effects: Natural Language Processing for
Uncovering the Illicit Massage Industry & Computer Vision for Tactile Sensing
- Title(参考訳): タンジブルエフェクトのための機械学習:無数のマッサージ産業を明らかにする自然言語処理と触覚のためのコンピュータビジョン
- Authors: Rui Ouyang
- Abstract要約: 私は自然言語処理を使ってアメリカのマッサージ産業を監視しています。
触覚センサーの製作におけるコンピュータビジョンの役割についても検討する。
ウェブカメラとプリントされた基準マーカーを使って、低コストの6軸力トルクセンサーを作る方法を示します。
- 参考スコア(独自算出の注目度): 1.4685355149711299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: I explore two questions in this thesis: how can computer science be used to
fight human trafficking? And how can computer vision create a sense of touch?
I use natural language processing (NLP) to monitor the United States illicit
massage industry (IMI), a multi-billion dollar industry that offers not just
therapeutic massages but also commercial sexual services. Employees of this
industry are often immigrant women with few job opportunities, leaving them
vulnerable to fraud, coercion, and other facets of human trafficking.
Monitoring spatiotemporal trends helps prevent trafficking in the IMI. By
creating datasets with three publicly-accessible websites: Google Places,
Rubmaps, and AMPReviews, combined with NLP techniques such as bag-of-words and
Word2Vec, I show how to derive insights into the labor pressures and language
barriers that employees face, as well as the income, demographics, and societal
pressures affecting sex buyers. I include a call-to-action to other researchers
given these datasets. I also consider how to creating synthetic financial data,
which can aid with counter-trafficking in the banking sector. I use an
agent-based model to create both tabular and payee-recipient graph data.
I then consider the role of computer vision in making tactile sensors. I
report on a novel sensor, the Digger Finger, that adapts the Gelsight sensor to
finding objects in granular media. Changes include using a wedge shape to
facilitate digging, replacing the internal lighting LEDs with fluorescent
paint, and adding a vibrator motor to counteract jamming. Finally, I also show
how to use a webcam and a printed reference marker, or fiducial, to create a
low-cost six-axis force-torque sensor. This sensor is up to a hundred times
less expensive than commercial sensors, allowing for a wider range of
applications. For this and earlier chapters I release design files and code as
open source.
- Abstract(参考訳): 私はこの論文で2つの疑問を探っている。コンピュータサイエンスは人間の身売買とどのように戦うことができるのか?
コンピュータビジョンはどのように触感を生み出すのか?
私は自然言語処理(NLP)を使って、治療マッサージだけでなく商業性サービスも提供する数十億ドル規模の産業である米国違法マッサージ産業(IMI)を監視しています。
この業界の従業員はしばしば、仕事の機会がほとんどなく移民の女性であり、詐欺や強制労働、その他の人身売買に弱い。
時空間トレンドの監視は、IMIにおけるトラフィックの防止に役立つ。
Google Places、Rubmaps、AMPReviewsの3つの公開ウェブサイトでデータセットを作成することで、bag-of-wordsやWord2VecといったNLP技術と組み合わせることで、従業員が直面する労働のプレッシャーや言語障壁、そして収入、人口統計、そして性購入に影響を与える社会的プレッシャーに対する洞察を導き出す方法を示します。
これらのデータセットには、他の研究者へのコール・トゥ・アクションが含まれています。
また、銀行セクターの対トラフィングに役立つ合成金融データの作成についても検討しています。
私はエージェントベースのモデルを使って表グラフデータと有償グラフデータの両方を作成します。
次に、触覚センサーの製造におけるコンピュータビジョンの役割を考えます。
私は、Gelsightセンサーをグラニュラーメディア中の物体に適応させる新しいセンサー、Digger Fingerについて報告します。
内部照明ledを蛍光塗料に置き換えたり、振動子モーターを追加してジャミングに対抗したりといった変更も行われた。
最後に、webカメラとプリントされた参照マーカー(fiducial)を使って低コストの6軸力トルクセンサーを作る方法を紹介します。
このセンサーは商用センサーの100倍も安いので、幅広い用途に使える。
この章とそれ以前の章では、デザインファイルとコードをオープンソースとしてリリースしています。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - 3D-ViTac: Learning Fine-Grained Manipulation with Visuo-Tactile Sensing [18.189782619503074]
本稿では,ロボットのためのマルチモーダルセンシング学習システムであるtextbf3D-ViTacを紹介する。
このシステムは、高密度センシングユニットを備えた触覚センサーを備えており、それぞれが3$mm2$の面積をカバーしている。
低コストのロボットでも精密な操作が可能であり、視覚のみのポリシーよりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2024-10-31T16:22:53Z) - Learning Precise, Contact-Rich Manipulation through Uncalibrated Tactile Skins [17.412763585521688]
我々は、トランスフォーマーベースのポリシーを使用して、皮膚センサーデータを視覚情報とともに追加トークンとして扱うシンプルなアプローチであるVisuo-Skin(ViSk)フレームワークを提案する。
ViSkは、視力のみと光触覚に基づくポリシーの両方で著しく優れています。
さらに、触覚と視覚のモダリティを組み合わせることで、政策性能と空間的一般化が向上し、タスク全体で平均27.5%の改善が達成される。
論文 参考訳(メタデータ) (2024-10-22T17:59:49Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - Classifying Human Activities with Inertial Sensors: A Machine Learning
Approach [0.0]
HAR(Human Activity Recognition)は、現在進行中の研究課題である。
医療サポート、スポーツ、フィットネス、ソーシャルネットワーキング、ヒューマン・コンピュータ・インタフェース、シニア・ケア、エンターテイメント、監視などの分野に応用されている。
スマートフォンの慣性センサデータを用いて,人間活動認識のための機械学習と深層学習のアプローチを検討した。
論文 参考訳(メタデータ) (2021-11-09T08:17:33Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。