論文の概要: eye2vec: Learning Distributed Representations of Eye Movement for Program Comprehension Analysis
- arxiv url: http://arxiv.org/abs/2510.11722v2
- Date: Wed, 15 Oct 2025 02:18:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 15:32:14.110126
- Title: eye2vec: Learning Distributed Representations of Eye Movement for Program Comprehension Analysis
- Title(参考訳): eye2vec:プログラム理解分析のためのアイムーブメントの分散表現学習
- Authors: Haruhiko Yoshioka, Kazumasa Shimari, Hidetake Uwano, Kenichi Matsumoto,
- Abstract要約: eye2vecはソースコードを読みながら ソフトウェア開発者の目の動きを分析するインフラです
Eye2vecは、分散表現を用いた構文要素間の遷移として、連続的な2つの固定を表す。
- 参考スコア(独自算出の注目度): 1.1279582296582873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents eye2vec, an infrastructure for analyzing software developers' eye movements while reading source code. In common eye-tracking studies in program comprehension, researchers must preselect analysis targets such as control flow or syntactic elements, and then develop analysis methods to extract appropriate metrics from the fixation for source code. Here, researchers can define various levels of AOIs like words, lines, or code blocks, and the difference leads to different results. Moreover, the interpretation of fixation for word/line can vary across the purposes of the analyses. Hence, the eye-tracking analysis is a difficult task that depends on the time-consuming manual work of the researchers. eye2vec represents continuous two fixations as transitions between syntactic elements using distributed representations. The distributed representation facilitates the adoption of diverse data analysis methods with rich semantic interpretations.
- Abstract(参考訳): 本稿では,ソースコードを読みながらソフトウェア開発者の眼球運動を分析するための基盤である eye2vec について述べる。
プログラム理解における視線追跡研究において、研究者は制御フローや構文要素などの分析対象を事前に選択し、ソースコードの固定から適切なメトリクスを抽出する分析方法を開発する必要がある。
ここでは、単語、行、コードブロックなどの様々なレベルのAOIを定義でき、その違いは異なる結果をもたらす。
さらに、単語/行の固定の解釈は、分析の目的によって異なる可能性がある。
したがって、視線追跡分析は、研究者の時間を要する手作業に依存する難しい作業である。
eye2vecは、分散表現を用いた構文要素間の遷移として、連続的な2つの固定を表す。
分散表現は、豊富な意味解釈を持つ多様なデータ分析手法の採用を促進する。
関連論文リスト
- Multimodal Behavioral Patterns Analysis with Eye-Tracking and LLM-Based Reasoning [12.054910727620154]
視線追跡データは、ユーザの認知状態に関する貴重な洞察を明らかにするが、その構造化された非言語的な性質のために分析することは困難である。
本稿では、視線追跡信号からの認知パターン抽出を促進するために、マルチモーダルな人間-AI協調フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-24T09:49:53Z) - LayerFlow: Layer-wise Exploration of LLM Embeddings using Uncertainty-aware Interlinked Projections [11.252261879736102]
LayerFlowはビジュアル分析ワークスペースで、リンクされたプロジェクション設計に埋め込みを表示する。
変換、表現、解釈の不確実性を伝達する。
提案するワークスペースのユーザビリティについて,再現性およびエキスパートケーススタディを通じて紹介する。
論文 参考訳(メタデータ) (2025-04-09T12:24:58Z) - Decoding Reading Goals from Eye Movements [1.3176926720381554]
本研究は,情報探索と一般読解の2種類の共通読解目標を区別できるかどうかを検討する。
大規模な視線追跡データを用いて、様々なアーキテクチャとデータ表現戦略をカバーする幅広いモデルを用いて、この問題に対処する。
我々は、参加者がテキストを読み終えるずっと前に、正確な予測をリアルタイムで行うことができることを発見した。
論文 参考訳(メタデータ) (2024-10-28T06:40:03Z) - Evaluating Semantic Variation in Text-to-Image Synthesis: A Causal Perspective [50.261681681643076]
本稿では,SemVarEffectとSemVarBenchというベンチマークを用いて,テキスト・画像合成における入力のセマンティックな変化と出力の因果性を評価する。
本研究は,T2I合成コミュニティによるヒューマンインストラクション理解の探索を促進する効果的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2024-10-14T08:45:35Z) - Scholastic: Graphical Human-Al Collaboration for Inductive and
Interpretive Text Analysis [20.008165537258254]
解釈学者は、意味のあるテーマが現れるまで、文書を手作業でサンプリングし、コードを適用し、コードをカテゴリに書き換え、照合することで、テキストコーパスから知識を生成する。
大規模なコーパスがあれば、機械学習はデータのサンプリングと分析をスケールするのに役立ちますが、以前の研究は、専門家が一般的に、解釈奨学金の破壊や推進に懸念を抱いていることを示しています。
我々は,機械・イン・ザ・ループクラスタリングアルゴリズムに関わる問題に対処するために,人間中心の設計アプローチを採り入れ,解釈テキスト分析を足場とした。
論文 参考訳(メタデータ) (2022-08-12T06:41:45Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - End-to-End Models for the Analysis of System 1 and System 2 Interactions
based on Eye-Tracking Data [99.00520068425759]
本稿では,よく知られたStroopテストの視覚的修正版において,様々なタスクと潜在的な競合事象を特定するための計算手法を提案する。
統計的分析により、選択された変数は、異なるシナリオにおける注意負荷の変動を特徴付けることができることが示された。
機械学習技術は,異なるタスクを分類精度良く区別できることを示す。
論文 参考訳(メタデータ) (2020-02-03T17:46:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。