論文の概要: From Far and Near: Perceptual Evaluation of Crowd Representations Across Levels of Detail
- arxiv url: http://arxiv.org/abs/2510.20558v1
- Date: Thu, 23 Oct 2025 13:39:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.028289
- Title: From Far and Near: Perceptual Evaluation of Crowd Representations Across Levels of Detail
- Title(参考訳): 遠方から近方へ:細部における群集表現の知覚的評価
- Authors: Xiaohan Sun, Carol O'Sullivan,
- Abstract要約: 本研究では,観客の表情表現の視覚的質を,異なるレベルの詳細(LoD)と視聴距離で知覚する方法について検討する。
この結果は,クラウドレンダリングのための知覚的に最適化されたLoD戦略の設計の指針となる。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we investigate how users perceive the visual quality of crowd character representations at different levels of detail (LoD) and viewing distances. Each representation: geometric meshes, image-based impostors, Neural Radiance Fields (NeRFs), and 3D Gaussians, exhibits distinct trade-offs between visual fidelity and computational performance. Our qualitative and quantitative results provide insights to guide the design of perceptually optimized LoD strategies for crowd rendering.
- Abstract(参考訳): 本稿では,観客の表情表現の視覚的質を,異なるレベルのディテール(LoD)と視聴距離で知覚する方法について検討する。
それぞれの表現:幾何メッシュ、画像ベースのインポスタ、ニューラル放射場(NeRF)、および3Dガウスは、視覚的忠実度と計算性能の間に明確なトレードオフを示す。
我々の定性的かつ定量的な結果は、群衆レンダリングのための知覚的に最適化されたLoD戦略の設計を導くための洞察を提供する。
関連論文リスト
- CoVis: A Collaborative Framework for Fine-grained Graphic Visual Understanding [0.29127054707887967]
CoVisは、きめ細かい視覚的理解のための協調的なフレームワークである。
カスケード二重層セグメンテーションネットワークの設計と実装により、画像からできるだけ多くの知識を抽出する。
画像の視覚分析を生成し、より総合的な視点から画像の理解を支援する。
論文 参考訳(メタデータ) (2024-11-27T21:38:04Z) - Human Vision Constrained Super-Resolution [7.6097181983152185]
本稿では,人間の感性に応じてSR法を導出する明示的なヒューマンビジュアル処理フレームワーク(HVPF)を提案する。
本稿では、SR手法の計算効率を向上させるために、ネットワーク分岐と組み合わせてフレームワークの応用を実証する。
論文 参考訳(メタデータ) (2024-11-26T15:24:45Z) - When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Anti-Aliased Neural Implicit Surfaces with Encoding Level of Detail [54.03399077258403]
本稿では,高頻度幾何細部リカバリとアンチエイリアス化された新しいビューレンダリングのための効率的なニューラル表現であるLoD-NeuSを提案する。
我々の表現は、光線に沿った円錐状のフラストラム内の多面体化から空間特徴を集約する。
論文 参考訳(メタデータ) (2023-09-19T05:44:00Z) - Dehazed Image Quality Evaluation: From Partial Discrepancy to Blind
Perception [35.257798506356814]
画像のデハジングは、ぼんやりとした画像から空間的詳細を復元することを目的としている。
本稿では,部分的不一致に基づく画像品質評価手法を提案する。
Blind Perceptionを用いたNo-Reference品質評価尺度に拡張する。
論文 参考訳(メタデータ) (2022-11-22T23:49:14Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Peripheral Vision Transformer [52.55309200601883]
我々は生物学的にインスパイアされたアプローチを採用し、視覚認識のためのディープニューラルネットワークの周辺視覚をモデル化する。
本稿では,マルチヘッド自己アテンション層に周辺位置エンコーディングを組み込むことにより,トレーニングデータから視覚領域を様々な周辺領域に分割することをネットワークが学べるようにすることを提案する。
大規模画像Netデータセット上でPerViTと呼ばれる提案したネットワークを評価し,マシン知覚モデルの内部動作を体系的に検討した。
論文 参考訳(メタデータ) (2022-06-14T12:47:47Z) - PANet: Perspective-Aware Network with Dynamic Receptive Fields and
Self-Distilling Supervision for Crowd Counting [63.84828478688975]
本稿では,視点問題に対処するため,PANetと呼ばれる新しい視点認識手法を提案する。
対象物のサイズが視点効果によって1つの画像で大きく変化するという観測に基づいて,動的受容場(DRF)フレームワークを提案する。
このフレームワークは、入力画像に応じて拡張畳み込みパラメータによって受容野を調整することができ、モデルが各局所領域についてより識別的な特徴を抽出するのに役立つ。
論文 参考訳(メタデータ) (2021-10-31T04:43:05Z) - Shallow Feature Based Dense Attention Network for Crowd Counting [103.67446852449551]
静止画像から群衆を数えるためのShallow機能に基づくDense Attention Network (SDANet)を提案する。
提案手法は,SDANetの11.9%の平均絶対誤差(MAE)低下から明らかなように,既存の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2020-06-17T13:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。