論文の概要: Empowering Visually Impaired Individuals: A Novel Use of Apple Live
Photos and Android Motion Photos
- arxiv url: http://arxiv.org/abs/2309.08022v1
- Date: Thu, 14 Sep 2023 20:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 16:45:45.335532
- Title: Empowering Visually Impaired Individuals: A Novel Use of Apple Live
Photos and Android Motion Photos
- Title(参考訳): 視覚障害者のエンパワーメント:apple live photosとandroid motion photosの斬新な利用
- Authors: Seyedalireza Khoshsirat, Chandra Kambhamettu
- Abstract要約: われわれは、Apple Live PhotosとAndroid Motion Photosの技術の使用を提唱している。
以上の結果から,Live PhotosとMotion Photosは,共通の視覚支援タスクにおいて,単フレーム画像よりも優れていた。
- 参考スコア(独自算出の注目度): 3.66237529322911
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Numerous applications have been developed to assist visually impaired
individuals that employ a machine learning unit to process visual input.
However, a critical challenge with these applications is the sub-optimal
quality of images captured by the users. Given the complexity of operating a
camera for visually impaired individuals, we advocate for the use of Apple Live
Photos and Android Motion Photos technologies. In this study, we introduce a
straightforward methodology to evaluate and contrast the efficacy of
Live/Motion Photos against traditional image-based approaches. Our findings
reveal that both Live Photos and Motion Photos outperform single-frame images
in common visual assisting tasks, specifically in object classification and
VideoQA. We validate our results through extensive experiments on the ORBIT
dataset, which consists of videos collected by visually impaired individuals.
Furthermore, we conduct a series of ablation studies to delve deeper into the
impact of deblurring and longer temporal crops.
- Abstract(参考訳): 視覚入力を処理するために機械学習ユニットを使用する視覚障害者を支援するために、多くのアプリケーションが開発されている。
しかし、これらのアプリケーションにおける重要な課題は、ユーザがキャプチャする画像の準最適品質である。
視覚障害者のためのカメラの操作の複雑さを考えると、Apple Live PhotosとAndroid Motion Photosの技術の使用を提唱する。
本研究では,Live/Motion Photosの有効性を従来の画像ベースアプローチと対比する手法を提案する。
以上の結果から,Live PhotosとMotion Photosは,共通の視覚支援タスク,特にオブジェクト分類やビデオQAにおいて,単フレーム画像よりも優れていた。
我々は、視覚障害者が収集したビデオからなるORBITデータセットの広範な実験を通して、その結果を検証する。
さらに,より長い時間的作物の影響を深く掘り下げるために,一連のアブレーション研究を実施している。
関連論文リスト
- Low-Light Enhancement Effect on Classification and Detection: An Empirical Study [48.6762437869172]
我々は,低照度画像強調法(LLIE)が高レベル視覚タスクに与える影響を評価する。
本研究は,人間の視覚知覚における画像強調と,機械解析における切り離しを示唆するものである。
この洞察は、人間と機械の視覚の両方のニーズに合致するLLIE技術の開発に不可欠である。
論文 参考訳(メタデータ) (2024-09-22T14:21:31Z) - Freeview Sketching: View-Aware Fine-Grained Sketch-Based Image Retrieval [85.73149096516543]
微細スケッチベース画像検索(FG-SBIR)におけるスケッチ作成時の視点選択について検討する。
パイロットスタディでは、クエリスケッチがターゲットインスタンスと異なる場合、システムの苦労を強調している。
これを解決するために、ビューに依存しないタスクとビュー固有のタスクの両方をシームレスに収容するビューアウェアシステムを提案する。
論文 参考訳(メタデータ) (2024-07-01T21:20:44Z) - Foveation in the Era of Deep Learning [6.602118206533142]
本稿では,グラフ畳み込みネットワークを利用してフェーブ化された画像を処理する,エンドツーエンドで微分可能なアクティブ・ビジョン・アーキテクチャを提案する。
我々のモデルは、分類に関連する画像の領域に反復的に出席することを学ぶ。
我々のモデルは最先端のCNNと、同等のパラメータと与えられたピクセルや予算の視覚アーキテクチャより優れています。
論文 参考訳(メタデータ) (2023-12-03T16:48:09Z) - Real-Time Under-Display Cameras Image Restoration and HDR on Mobile
Devices [81.61356052916855]
アンダーディスプレイカメラ(UDC)によって撮影された画像は、その前のスクリーンによって劣化する。
画像復元のためのディープラーニング手法は、キャプチャ画像の劣化を著しく低減することができる。
我々は,視覚的UDC画像復元とHDRのための軽量なモデルを提案し,スマートフォン上での様々な手法の性能と実行状況を比較したベンチマークを提供する。
論文 参考訳(メタデータ) (2022-11-25T11:46:57Z) - Blind Users Accessing Their Training Images in Teachable Object
Recognizers [12.833745050235047]
MyCamは、ユーザーのトレーニングセット内の写真への非視覚的アクセスのために、自動的に推定されたディスクリプタを組み込んだモバイルアプリである。
我々は、リアルタイム写真レベルの記述子により、視覚障害者が被写体で写真を減らすことができ、参加者がトレーニングセットの質を反復してアクセスすることで、より多くのバリエーションを付加できることを実証した。
論文 参考訳(メタデータ) (2022-08-16T21:59:48Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - FaIRCoP: Facial Image Retrieval using Contrastive Personalization [43.293482565385055]
属性から顔画像を取得することは、顔認識や被疑者識別などの様々なシステムにおいて重要な役割を果たす。
既存の方法は、ユーザのメンタルイメージの特定の特徴を、提案した画像と比較することで実現している。
そこで本研究では,ユーザのフィードバックを用いて,対象画像と類似あるいは異な画像とラベル付けする手法を提案する。
論文 参考訳(メタデータ) (2022-05-28T09:52:09Z) - Muscle Vision: Real Time Keypoint Based Pose Classification of Physical
Exercises [52.77024349608834]
ビデオから外挿された3D人間のポーズ認識は、リアルタイムソフトウェアアプリケーションを可能にするまで進歩した。
本稿では,ライブビデオフィード上で人間のポーズ認識を行う新しい機械学習パイプラインとWebインターフェースを提案する。
論文 参考訳(メタデータ) (2022-03-23T00:55:07Z) - Performance of object recognition in wearable videos [9.669942356088377]
本研究は、このタイプのカメラで撮影した映像における物体検出と位置決めの問題について研究する。
本稿では、精度と速度の優れたトレードオフを提供する、よく知られたYOLOアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2020-09-10T15:20:17Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。