論文の概要: AdaptLIL: A Gaze-Adaptive Visualization for Ontology Mapping
- arxiv url: http://arxiv.org/abs/2411.11768v1
- Date: Mon, 18 Nov 2024 17:47:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:27:45.987764
- Title: AdaptLIL: A Gaze-Adaptive Visualization for Ontology Mapping
- Title(参考訳): AdaptLIL: オントロジーマッピングのための迷路適応可視化
- Authors: Nicholas Chow, Bo Fu,
- Abstract要約: 本稿では,視線を主入力源とするリアルタイム適応型リンクインデントリストオントロジーマッピングであるAdaptLILについて紹介する。
リアルタイムシステム、ディープラーニング、Web開発アプリケーションのマルチモーダルな組み合わせを通じて、このシステムは、視線のみに基づく個々のユーザのためのリンクインデントリストオントロジー可視化のペアマッピングにグラフィカルオーバーレイ(適応)を一意に調整する。
- 参考スコア(独自算出の注目度): 7.762130934257804
- License:
- Abstract: This paper showcases AdaptLIL, a real-time adaptive link-indented list ontology mapping visualization that uses eye gaze as the primary input source. Through a multimodal combination of real-time systems, deep learning, and web development applications, this system uniquely curtails graphical overlays (adaptations) to pairwise mappings of link-indented list ontology visualizations for individual users based solely on their eye gaze.
- Abstract(参考訳): 本稿では,視線を主入力源とするリアルタイム適応型リンクインデントリストオントロジーマッピングであるAdaptLILについて紹介する。
リアルタイムシステム、ディープラーニング、Web開発アプリケーションのマルチモーダルな組み合わせを通じて、このシステムは、視線のみに基づく個々のユーザのためのリンクインデントリストオントロジー可視化のペアマッピングにグラフィカルオーバーレイ(適応)を一意に調整する。
関連論文リスト
- HeGraphAdapter: Tuning Multi-Modal Vision-Language Models with Heterogeneous Graph Adapter [19.557300178619382]
本稿では,下流タスクに対するVLMのチューニングを実現するために,新しいヘテロジニアスグラフアダプタを提案する。
我々は、下流タスクの多モード構造知識を探索するために、特定の不均一グラフニューラルネットワークを用いる。
11のベンチマークデータセットの実験結果は、提案したHeGraphAdapterの有効性とメリットを示している。
論文 参考訳(メタデータ) (2024-10-10T12:20:58Z) - Mind the GAP: Glimpse-based Active Perception improves generalization and sample efficiency of visual reasoning [0.7999703756441756]
視覚関係を理解する人間の能力は、AIシステムよりもはるかに優れている。
Glimpse-based Active Perception (GAP) システムを開発した。
その結果,GAPは即時的な視覚内容を超えた視覚関係の抽出に不可欠であることが示唆された。
論文 参考訳(メタデータ) (2024-09-30T11:48:11Z) - Progressive Retinal Image Registration via Global and Local Deformable Transformations [49.032894312826244]
我々はHybridRetinaと呼ばれるハイブリッド登録フレームワークを提案する。
キーポイント検出器とGAMorphと呼ばれる変形ネットワークを用いて、大域的な変換と局所的な変形可能な変換を推定する。
FIREとFLoRI21という2つの広く使われているデータセットの実験により、提案したHybridRetinaは最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-09-02T08:43:50Z) - Dual-Image Enhanced CLIP for Zero-Shot Anomaly Detection [58.228940066769596]
本稿では,統合視覚言語スコアリングシステムを活用したデュアルイメージ強化CLIP手法を提案する。
提案手法は,画像のペアを処理し,それぞれを視覚的参照として利用することにより,視覚的コンテキストによる推論プロセスを強化する。
提案手法は視覚言語による関節異常検出の可能性を大幅に活用し,従来のSOTA法と同等の性能を示す。
論文 参考訳(メタデータ) (2024-05-08T03:13:20Z) - GeoVLN: Learning Geometry-Enhanced Visual Representation with Slot
Attention for Vision-and-Language Navigation [52.65506307440127]
我々は,ロバストなビジュアル・アンド・ランゲージナビゲーションのためのスロットアテンションに基づく幾何学的視覚表現を学習するGeoVLNを提案する。
我々はV&L BERTを用いて言語情報と視覚情報の両方を組み込んだクロスモーダル表現を学習する。
論文 参考訳(メタデータ) (2023-05-26T17:15:22Z) - SgVA-CLIP: Semantic-guided Visual Adapting of Vision-Language Models for
Few-shot Image Classification [84.05253637260743]
本稿では,セマンティック誘導視覚適応(SgVA)と呼ばれる新しいフレームワークを提案する。
SgVAは、視覚特異的のコントラスト損失、クロスモーダルのコントラスト損失、暗黙の知識蒸留を包括的に利用することで、識別的なタスク固有の視覚特徴を生成する。
13のデータセットの最先端の結果は、適応された視覚的特徴が、クロスモーダルな特徴を補完し、少数の画像分類を改善することを実証している。
論文 参考訳(メタデータ) (2022-11-28T14:58:15Z) - Peripheral Vision Transformer [52.55309200601883]
我々は生物学的にインスパイアされたアプローチを採用し、視覚認識のためのディープニューラルネットワークの周辺視覚をモデル化する。
本稿では,マルチヘッド自己アテンション層に周辺位置エンコーディングを組み込むことにより,トレーニングデータから視覚領域を様々な周辺領域に分割することをネットワークが学べるようにすることを提案する。
大規模画像Netデータセット上でPerViTと呼ばれる提案したネットワークを評価し,マシン知覚モデルの内部動作を体系的に検討した。
論文 参考訳(メタデータ) (2022-06-14T12:47:47Z) - CLIP-Adapter: Better Vision-Language Models with Feature Adapters [79.52844563138493]
即時チューニング以外に、より良い視覚言語モデルを実現するための代替経路があることが示される。
本稿では,CLIP-Adapterを提案する。
様々な視覚的分類タスクの実験および広範囲なアブレーション研究は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2021-10-09T11:39:30Z) - Understanding Character Recognition using Visual Explanations Derived
from the Human Visual System and Deep Networks [6.734853055176694]
深層ニューラルネットワークの情報収集戦略における合同性,あるいはその欠如について検討する。
深層学習モデルは、人間が正しく分類された文字に対して固定した文字の類似した領域を考慮に入れた。
本稿では、視線追跡実験から得られた視覚的固定マップを、モデルが関連する文字領域に焦点を合わせるための監督入力として用いることを提案する。
論文 参考訳(メタデータ) (2021-08-10T10:09:37Z) - RIT-Eyes: Rendering of near-eye images for eye-tracking applications [3.4481343795011226]
ビデオベースの視線追跡のためのディープニューラルネットワークは、ノイズの多い環境、迷路反射、低解像度に対するレジリエンスを実証している。
これらのネットワークをトレーニングするには、手動でアノテートした画像が多数必要である。
本研究では, アクティブな変形可能な虹彩, 非球性角膜, 網膜反射, 視線調整眼球の変形, 点滅などの特徴を付加することにより, 従来よりも優れた合成眼球画像生成プラットフォームを提案する。
論文 参考訳(メタデータ) (2020-06-05T19:18:50Z) - A Coarse-to-Fine Adaptive Network for Appearance-Based Gaze Estimation [24.8796573846653]
本稿では、顔画像から基本的な視線方向を推定し、それに対応する残差を眼画像から予測して精査する粗大な戦略を提案する。
我々は,粗大な適応ネットワークであるCA-Netを構築し,MPIIGazeとEyeDiapの最先端性能を実現する。
論文 参考訳(メタデータ) (2020-01-01T10:39:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。