論文の概要: HandSight: DeCAF & Improved Fisher Vectors to Classify Clothing Color
and Texture with a Finger-Mounted Camera
- arxiv url: http://arxiv.org/abs/2311.12225v1
- Date: Mon, 20 Nov 2023 22:43:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 02:44:20.179321
- Title: HandSight: DeCAF & Improved Fisher Vectors to Classify Clothing Color
and Texture with a Finger-Mounted Camera
- Title(参考訳): 指を装着したカメラで衣服の色とテクスチャを分類する「deceaf & improved fisher vectors」
- Authors: Alexander J. Medeiros, Lee Stearns, Jon E. Froehlich
- Abstract要約: 衣服のテクスチャを分類するために,DeCAFと改良されたフィッシャーベクトル画像の特徴を実証した。
この研究は、フィンガーマウントカメラと最先端の分類アルゴリズムでこの問題を解決しようとしている。
- 参考スコア(独自算出の注目度): 57.37163491794416
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We demonstrate the use of DeCAF and Improved Fisher Vector image features to
classify clothing texture. The issue of choosing clothes is a problem for the
blind every day. This work attempts to solve the issue with a finger-mounted
camera and state-of-the-art classification algorithms. To evaluate our
solution, we collected 520 close-up images across 29 pieces of clothing. We
contribute (1) the HCTD, an image dataset taken with a NanEyeGS camera, a
camera small enough to be mounted on the finger, and (2) evaluations of
state-of-the-art recognition algorithms applied to our dataset - achieving an
accuracy >95%. Throughout the paper, we will discuss previous work, evaluate
the current work, and finally, suggest the project's future direction.
- Abstract(参考訳): 着衣のテクスチャを分類するために,decaf とfisher vector 画像の特徴を改良した。
服を選ぶ問題は、毎日盲目の人にとって問題です。
この研究は、フィンガーマウントカメラと最先端の分類アルゴリズムでこの問題を解決する。
ソリューションを評価するために,29種類の衣服で520枚のクローズアップ画像を収集した。
我々は,(1)NanEyeGSカメラで撮影した画像データセットHCTD,(2)指に装着可能な小型カメラ,(2)我々のデータセットに適用した最先端認識アルゴリズムの評価を行い,95%の精度を実現した。
論文全体を通して,これまでの作業について議論し,現在の作業を評価し,最後に,プロジェクトの今後の方向性を示唆する。
関連論文リスト
- ImageNet-Hard: The Hardest Images Remaining from a Study of the Power of
Zoom and Spatial Biases in Image Classification [9.779748872936912]
入力画像の適切なフレーミングは、イメージネット画像の98.91%の正確な分類につながることを示す。
本稿では,モデルにズームイン操作を明示的に実行させることにより,分類精度を向上させるテスト時間拡張(TTA)手法を提案する。
論文 参考訳(メタデータ) (2023-04-11T23:55:50Z) - Fashion Image Retrieval with Multi-Granular Alignment [4.109124423081812]
ファッション画像検索タスクは,ギャラリーから検索画像の関連する衣服を検索することを目的としている。
これまでのレシピでは、異なる距離に基づく損失関数の設計、関連するペアの接近、無関係なイメージの分離に重点を置いていた。
MGA(Multi-Granular Alignment)と呼ばれる大域的特徴ときめ細かな特徴を両立させる新しいファッション画像検索手法を提案する。
論文 参考訳(メタデータ) (2023-02-16T10:43:31Z) - Fewer is More: Efficient Object Detection in Large Aerial Images [59.683235514193505]
本稿では,検出者がより少ないパッチに注目するのに対して,より効率的な推論とより正確な結果を得るのに役立つObjectness Activation Network(OAN)を提案する。
OANを用いて、5つの検出器は3つの大規模な空中画像データセットで30.0%以上のスピードアップを取得する。
我々はOANをドライブシーン物体検出と4Kビデオ物体検出に拡張し,検出速度をそれぞれ112.1%,75.0%向上させた。
論文 参考訳(メタデータ) (2022-12-26T12:49:47Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Hand gesture detection in tests performed by older adults [9.00837522898458]
我々は、年齢に伴う手の動きの特徴を分析するオンラインテストを開発している。
手の動きの特徴を得るために、参加者は自分のコンピュータカメラを使って様々な手の動きを行うよう依頼される。
特に高齢者を対象に,高品質な手動動画データを収集することは困難である。
論文 参考訳(メタデータ) (2021-10-27T14:29:01Z) - Fast and Accurate Camera Scene Detection on Smartphones [51.424407411660376]
本稿では,11K以上の手動クロール画像を含むカメラシーン検出データセット(CamSDD)を提案する。
本研究では,このデータセット上で上位3の99.5%の精度を示す,効率的かつNPU対応のCNNモデルを提案する。
論文 参考訳(メタデータ) (2021-05-17T14:06:21Z) - DetCo: Unsupervised Contrastive Learning for Object Detection [64.22416613061888]
教師なしのコントラスト学習は,CNNを用いた画像表現学習において大きな成功を収めている。
我々は,グローバルイメージとローカルイメージパッチのコントラストをフルに検討する,DetCoという新しいコントラスト学習手法を提案する。
DetCoは1倍のスケジュールでMask RCNN-C4/FPN/RetinaNet上で1.6/1.2/1.0 APで教師付き手法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-02-09T12:47:20Z) - The Forchheim Image Database for Camera Identification in the Wild [10.091921099426294]
Forchheim Image Database (FODB)は、27台のスマートフォンカメラで143シーンの23,000枚以上の画像で構成されている。
各画像は、オリジナルのカメラネイティブバージョンと、ソーシャルネットワークから5つのコピーの6つの異なる品質で提供される。
汎用EfficientNetは、クリーン画像と圧縮画像の両方で、いくつかの専門のCNNを著しく上回っている。
論文 参考訳(メタデータ) (2020-11-04T11:54:54Z) - DeepMark++: Real-time Clothing Detection at the Edge [55.41644538483948]
本稿では,迅速な衣服検出とキーポイント推定を実現するための単一ステージアプローチを提案する。
提案手法は,マルチターゲットネットワークであるCenterNetをベースとして,性能向上のためのポストプロセッシング技術をいくつか導入する。
私たちの最も正確なモデルは、DeepFashion2データセットの最先端ソリューションに匹敵する結果を達成します。
論文 参考訳(メタデータ) (2020-06-01T04:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。