論文の概要: A Panopticon on My Wrist: The Biopower of Big Data Visualization for Wearables
- arxiv url: http://arxiv.org/abs/2412.14176v1
- Date: Tue, 03 Dec 2024 07:58:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-22 08:34:02.248923
- Title: A Panopticon on My Wrist: The Biopower of Big Data Visualization for Wearables
- Title(参考訳): ウェアラブルのためのビッグデータビジュアライゼーションのバイオパワー
- Authors: KJ Hepworth,
- Abstract要約: 本稿では、FitBitのようなウェアラブルヘルストラッキングエコシステムにおける、ビッグデータの可視化に関する設計インフォームド視点を提供する。
このような視覚化は、企業による個人情報の獲得と収益化を促進するために、誘惑や中毒の経験を通じて主に機能する、個人化された新自由主義的なガバナンスのツールである、と私は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Big data visualization - the visual-spatial display of quantitative information culled from huge data sets - is now firmly embedded within the everyday experiences of people across the globe, yet scholarship on it remains surprisingly small. Within this literature, critical theorizations of big data visualizations are rare, as digital positivist perspectives dominate. This paper offers a critical, design-informed perspective on big data visualization in wearable health tracking ecosystems like FitBit. I argue that such visualizations are tools of individualized, neoliberal governance that operate largely through experiences of seduction and addiction to facilitate participation in the corporate capture and monetization of personal information. Exploration of my personal experience of the FitBit ecosystem illuminates this argument and emphasizes the capacity for harm to individuals using these ecosystems, leading to an exploration of the complex professional challenges for user experience designers working on visualizations within the ecosystems of wearables.
- Abstract(参考訳): ビッグデータビジュアライゼーション(ビッグデータビジュアライゼーション) — 巨大なデータセットから得られた量的情報の視覚空間表示 — は現在、世界中の人々の日常的な体験の中にしっかりと埋め込まれていますが、その研究成果は驚くほど小さいままです。
この文献の中では、デジタル実証主義的な視点が支配的であるため、ビッグデータ視覚化の批判的な理論化はまれである。
本稿は、FitBitのようなウェアラブルヘルストラッキングエコシステムにおける、ビッグデータの可視化に関する批判的で、インフォームドな視点を提供する。
このような視覚化は、企業による個人情報の獲得と収益化を促進するために、誘惑や中毒の経験を通じて主に機能する、個人化された新自由主義的なガバナンスのツールである、と私は主張する。
FitBitエコシステムに関する私の個人的な経験の探求は、この議論を照らし、これらのエコシステムを使用している個人に害を与える能力を強調し、ウェアラブルエコシステム内の視覚化に取り組んでいるユーザエクスペリエンスデザイナにとっての、複雑なプロフェッショナルな課題の探求につながります。
関連論文リスト
- Can-Do! A Dataset and Neuro-Symbolic Grounded Framework for Embodied Planning with Large Multimodal Models [85.55649666025926]
具体的計画能力を評価するために設計されたベンチマークデータセットであるCan-Doを紹介する。
私たちのデータセットには400のマルチモーダルサンプルが含まれており、それぞれが自然言語のユーザ指示、環境を描写した視覚イメージ、状態変化、対応するアクションプランで構成されています。
ニューログラウンド(NeuroGround)は、まず認識された環境状態において計画生成を基礎とし、次に象徴的な計画エンジンを活用してモデル生成計画を強化する、ニューログラウンド(NeuroGround)を提案する。
論文 参考訳(メタデータ) (2024-09-22T00:30:11Z) - Ethical Challenges in Computer Vision: Ensuring Privacy and Mitigating Bias in Publicly Available Datasets [0.0]
本稿では,コンピュータビジョン技術の創造と展開に関する倫理的問題に光を当てることを目的とする。
コンピュータビジョンは医療、セキュリティシステム、貿易など多くの産業において重要なツールとなっている。
論文 参考訳(メタデータ) (2024-08-31T00:59:29Z) - Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - The Visual Experience Dataset: Over 200 Recorded Hours of Integrated Eye Movement, Odometry, and Egocentric Video [0.9644266648330361]
Visual Experienceデータセットは717のセッションで構成されており、6歳から49歳の58人の観察者が記録している。
VEDBの潜在的な応用には、ビデオトラッキング方法論の改善、画像統計の評価、シーンとアクティビティの認識のためのディープニューラルネットワークの精細化などがある。
論文 参考訳(メタデータ) (2024-02-15T10:34:28Z) - Decoding Attention from Gaze: A Benchmark Dataset and End-to-End Models [6.642042615005632]
視線追跡は、生態学的に有効な環境において、人間の認知に関する豊富な行動データを提供する可能性がある。
本稿では,コンピュータビジョンツールを用いて,時間とともに参加者の過度な視覚的注意の軌跡を評価する作業である「アテンション・デコーディング」について検討する。
論文 参考訳(メタデータ) (2022-11-20T12:24:57Z) - Large Scale Real-World Multi-Person Tracking [68.27438015329807]
本稿では,新しい大規模多人数追跡データセットであるtexttPersonPath22を提案する。
MOT17、HiEve、MOT20などの高品質なマルチオブジェクト追跡データセットよりも桁違いに大きい。
論文 参考訳(メタデータ) (2022-11-03T23:03:13Z) - On The State of Data In Computer Vision: Human Annotations Remain
Indispensable for Developing Deep Learning Models [0.0]
高品質ラベル付きデータセットは機械学習(ML)の発展に重要な役割を果たす
2012年にImageNetデータセットとAlexNetモデルが登場して以来、新しいオープンソースのラベル付きビジョンデータセットのサイズはほぼ一定である。
コンピュータビジョンコミュニティの少数の出版物は、Imagenetよりも桁違いの大きさのデータセットの教師付き学習に取り組む。
論文 参考訳(メタデータ) (2021-07-31T00:08:21Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - Efficient Pipelines for Vision-Based Context Sensing [0.24366811507669117]
世界中の視界源が出現しており、カメラは道路、社内、モバイルプラットフォームに設置できる。
しかし、ビジョンデータ収集と分析は今でも非常に手作業で行われている。
今日の視覚ベースのコンテキストセンシングシステムには3つの大きな課題がある。
論文 参考訳(メタデータ) (2020-11-01T05:09:13Z) - Laplacian Denoising Autoencoder [114.21219514831343]
本稿では,新しいタイプの自動符号化器を用いてデータ表現を学習することを提案する。
勾配領域における潜伏クリーンデータを破損させて雑音入力データを生成する。
いくつかのビジュアルベンチマークの実験では、提案されたアプローチでより良い表現が学べることが示されている。
論文 参考訳(メタデータ) (2020-03-30T16:52:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。