論文の概要: Flikcer -- A Chrome Extension to Resolve Online Epileptogenic Visual
Content with Real-Time Luminance Frequency Analysis
- arxiv url: http://arxiv.org/abs/2108.09491v1
- Date: Sat, 21 Aug 2021 11:16:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 07:34:50.816367
- Title: Flikcer -- A Chrome Extension to Resolve Online Epileptogenic Visual
Content with Real-Time Luminance Frequency Analysis
- Title(参考訳): flikcer - リアルタイム輝度周波数解析によるオンラインてんかん原性視覚コンテンツを解決するためのchromeエクステンション
- Authors: Jaisal Kothari, Ashay Srivastava
- Abstract要約: Flikcerは、ビデオにおけるてんかんのコンテンツを解決することを目指している。
これは発作の可能性のあるトリガーの数を提供する。
また、これらのトリガーのタイムスタンプや、ビデオのより安全なバージョンも無料でダウンロードできる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video content with fast luminance variations, or with spatial patterns of
high contrast - referred to as epileptogenic visual content - may induce
seizures on viewers with photosensitive epilepsy, and even cause discomfort in
users not affected by this disease. Flikcer is a web app in the form of a
website and chrome extension which aims to resolve epileptic content in videos.
It provides the number of possible triggers for a seizure. It also provides the
timestamps for these triggers along with a safer version of the video, free to
download. The algorithm is written in Python and uses machine learning and
computer vision. A key aspect of the algorithm is its computational efficiency,
allowing real time implementation for public users.
- Abstract(参考訳): 映像コンテンツの輝度変動が速いか、あるいはてんかん原性視覚コンテンツと呼ばれる高コントラストの空間パターンが、感光性てんかんの視聴者に発作を誘発し、さらにこの疾患の影響を受けないユーザーに不快感を引き起こすこともある。
flikcerはwebサイトとchromeエクステンションという形で、ビデオのてんかん的なコンテンツを解決しようとするウェブアプリだ。
これは発作の可能性のあるトリガーの数を提供する。
また、これらのトリガーのタイムスタンプや、ビデオのより安全なバージョンも無料でダウンロードできる。
アルゴリズムはpythonで書かれており、機械学習とコンピュータビジョンを使用している。
このアルゴリズムの重要な側面は計算効率であり、利用者のリアルタイムな実装を可能にする。
関連論文リスト
- Vivim: a Video Vision Mamba for Medical Video Segmentation [52.11785024350253]
本稿では、医用ビデオセグメンテーションタスクのためのビデオビジョンマンバベースのフレームワークVivimを提案する。
我々のビビムは、長期表現を様々なスケールのシーケンスに効果的に圧縮することができる。
超音波検査では甲状腺分節,乳房病変分節,大腸内視鏡検査ではポリープ分節が有効で有効であった。
論文 参考訳(メタデータ) (2024-01-25T13:27:03Z) - Moving Object Based Collision-Free Video Synopsis [1.55172825097051]
ビデオ合成は空間的・時間的冗長性を利用して短いビデオを生成する。
合成の各フレームを漸進的に縫合する手法を用いてリアルタイムアルゴリズムを提案する。
屋内と屋外の6つの一般的なテストビデオを用いた実験では、提案したビデオ合成アルゴリズムは既存の手法よりもフレーム削減率が高いことが示された。
論文 参考訳(メタデータ) (2023-09-17T16:49:42Z) - Privacy-preserving Early Detection of Epileptic Seizures in Videos [10.180183020927872]
新たなフレームワーク(SETR-PKD)の導入によるビデオによるてんかん発作分類の開発に寄与する。
本フレームワークは, 患者のプライバシを保ちながら, 発作運動半減期をエンコードする, 発作映像から抽出した光学的フロー特徴に基づいて構築されている。
我々のフレームワークは、トニック・クロニック発作(TCS)を83.9%の精度でプライバシー保護方法で検出できる。
論文 参考訳(メタデータ) (2023-09-15T22:29:07Z) - A Spatial-Temporal Deformable Attention based Framework for Breast
Lesion Detection in Videos [107.96514633713034]
本稿では,STNet という空間的・時間的変形可能なアテンションベースのフレームワークを提案する。
我々のSTNetは、局所的な空間的時間的特徴融合を行うために、空間的時間的変形可能なアテンションモジュールを導入している。
乳腺病変の超音波画像データセットを用いた実験により,STNetは最先端の検出性能を得ることができた。
論文 参考訳(メタデータ) (2023-09-09T07:00:10Z) - Exploring Long- and Short-Range Temporal Information for Learned Video
Compression [54.91301930491466]
圧縮性能を高めるために,映像コンテンツの特徴を活かし,時間的情報を探究することに注力する。
本稿では,画像群(GOP)内で画像の推測中に連続的に更新できる時間前処理を提案する。
この場合、時間的事前は、現在のGOP内のすべてのデコードされた画像の貴重な時間的情報を含む。
本稿では,マルチスケール補償を実現する階層構造を設計する。
論文 参考訳(メタデータ) (2022-08-07T15:57:18Z) - How Asynchronous Events Encode Video [18.666472443354092]
イベントベースのカメラは、入力が変化したときにイベントを発生させるセンサーを備えており、イベントのタイミングで情報をエンコードする。
これにより、復元保証とアルゴリズムを確立する上で新たな課題が生まれるが、フレームベースのビデオよりもアドバンテージを提供する。
本稿では,帯域制限ビデオの時間符号化について考察し,空間センサ密度と全体空間分解能と時間分解能との依存性を示す。
論文 参考訳(メタデータ) (2022-06-09T08:36:21Z) - VPN: Video Provenance Network for Robust Content Attribution [72.12494245048504]
VPN - オンラインで共有されているビデオから出典情報を復元するコンテンツ属性手法を提案する。
完全長あるいは切り離されたビデオクエリを用いて,このようなビデオのマッチングに頑健な検索埋め込みを学習する。
一度ビデオクリップの信頼できるデータベースにマッチすると、そのクリップの出所に関する関連情報がユーザに提示される。
論文 参考訳(メタデータ) (2021-09-21T09:07:05Z) - Perceptual Learned Video Compression with Recurrent Conditional GAN [158.0726042755]
本稿では, PVC (Perceptual Learned Video Compression) アプローチを提案する。
PLVCは低ビットレートで映像を知覚品質に圧縮することを学ぶ。
ユーザスタディでは、最新の学習ビデオ圧縮手法と比較して、PLVCの優れた知覚性能をさらに検証している。
論文 参考訳(メタデータ) (2021-09-07T13:36:57Z) - Composable Augmentation Encoding for Video Representation Learning [94.2358972764708]
自己教師型ビデオ表現学習におけるコントラスト手法に着目した。
対照的な学習における一般的なパラダイムは、同じインスタンスで異なるデータビューをサンプリングし、異なるデータインスタンスを負として、ポジティブペアを構築することである。
そこで我々は,拡張パラメータの列を明示的に提供する,拡張対応型コントラスト学習フレームワークを提案する。
提案手法は,特定の空間的あるいは時間的拡張に関する情報をエンコードすると同時に,多数のビデオベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T16:48:53Z) - Multiple Instance-Based Video Anomaly Detection using Deep Temporal
Encoding-Decoding [5.255783459833821]
本稿では,監視ビデオにおける異常検出のための時間的深部符号化復号化手法を提案する。
提案手法はトレーニング期間中に異常ビデオクリップと正常ビデオクリップの両方を使用する。
提案手法は,ビデオ監視アプリケーションにおける異常検出の最先端ソリューションと同等かそれ以上に動作することを示す。
論文 参考訳(メタデータ) (2020-07-03T08:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。