論文の概要: A Contextual Help Browser Extension to Assist Digital Illiterate Internet Users
- arxiv url: http://arxiv.org/abs/2603.17592v1
- Date: Wed, 18 Mar 2026 11:06:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.657545
- Title: A Contextual Help Browser Extension to Assist Digital Illiterate Internet Users
- Title(参考訳): インターネット利用者のデジタルイルミネーションを支援するコンテキストヘルプブラウザエクステンション
- Authors: Christos Koutsiaris,
- Abstract要約: この拡張は、計算済みの技術辞書とOpenAIの大規模言語モデルを組み合わせて、オンデマンドで定義を提供する。
25名の被験者による混合手法による研究は、ツールが読解時間と情報検索時間に与える影響を評価した。
その結果,92%の参加者が,技術用語の理解を深めたことが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the design, implementation, and evaluation of a browser extension that provides contextual help to users who hover over technological acronyms and abbreviations on web pages. The extension combines a curated technical dictionary with OpenAI's large language model (LLM) to deliver on-demand definitions through lightweight tooltip overlays. A dual-layer artificial intelligence (AI) pipeline, comprising Google Cloud's Natural Language Processing (NLP) taxonomy API and OpenAI's ChatGPT, classifies each visited page as technology-related before activating the tooltip logic, thereby reducing false-positive detections. A mixed-methods study with 25 participants evaluated the tool's effect on reading comprehension and information-retrieval time among users with low to intermediate digital literacy. Results show that 92% of participants reported improved understanding of technical terms, 96% confirmed time savings over manual web searches, and all participants found the tooltips non-disruptive. Dictionary-based definitions were appended in an average of 2135 ms, compared to 16429 ms for AI-generated definitions and a mean manual search time of 17200 ms per acronym. The work demonstrates a practical, real-time approach to bridging the digital literacy gap and points toward extending contextual help to other domains such as medicine, law, and finance.
- Abstract(参考訳): 本稿では,Webページ上の技術的略語や略語をホバリングするユーザに対して,コンテキスト支援を提供するブラウザエクステンションの設計,実装,評価について述べる。
この拡張は、計算済みの技術辞書とOpenAIの大規模言語モデル(LLM)を組み合わせて、軽量ツールチップオーバーレイを通じてオンデマンドで定義を提供する。
Google Cloudの自然言語処理(NLP)分類APIとOpenAIのChatGPTで構成される2層人工知能(AI)パイプラインは、ツールチップロジックをアクティベートする前に、訪問した各ページを技術関連として分類し、偽陽性の検出を減らす。
25名の被験者による混合手法による研究は、低・中級デジタルリテラシーを持つ利用者の読解時間と情報検索時間に対するツールの効果を評価した。
その結果、92%の参加者が技術用語の理解が向上し、96%が手動によるウェブ検索よりも時間節約が確認され、全ての参加者がツールチップが破壊的でないことがわかった。
辞書ベースの定義は平均2135msで追加され、AIによる定義では16429ms、1頭字語での平均手動検索時間は17200msであった。
この研究は、デジタルリテラシーのギャップを埋める実践的でリアルタイムなアプローチを示し、医療、法律、金融といった他の分野へのコンテキスト支援を拡大するためのポイントを示している。
関連論文リスト
- CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - Supporting Students' Reading and Cognition with AI [12.029238454394445]
私たちは124セッションのテキストをAIツールで分析し、ユーザの読書プロセスと認知的エンゲージメントを理解しました。
我々は、低レベルの認知タスクのための構造化足場を含む、将来のAI読解支援システムの設計意味について提案する。
私たちは、学生やインストラクターがAIで読書体験をカスタマイズできる適応的で人間的なループ機能を提案しています。
論文 参考訳(メタデータ) (2025-04-07T17:51:27Z) - Unknown Word Detection for English as a Second Language (ESL) Learners Using Gaze and Pre-trained Language Models [24.607431783798425]
本稿では,テキストの内容と視線軌跡に基づいて未知語の確率を高精度に予測する,トランスフォーマーに基づく機械学習手法であるEyeLingoを提案する。
20名を対象にした調査では, 精度は97.6%, F1スコアは71.1%であった。
論文 参考訳(メタデータ) (2025-02-14T18:57:04Z) - Automatic answering of scientific questions using the FACTS-V1 framework: New methods in research to increase efficiency through the use of AI [0.0]
本稿では FACTS-V1 (Filtering and Analysis of Content in Textual Sources) フレームワークのプロトタイプについて述べる。
このアプリケーションの助けを借りて、多数の科学論文を自動的に抽出し、分析し、オープンアクセス文書サーバから解釈することができる。
このフレームワークの目的は、既存のデータに基づいた将来の科学的質問に対するレコメンデーションを提供することである。
論文 参考訳(メタデータ) (2024-12-01T18:55:39Z) - Scaling CS1 Support with Compiler-Integrated Conversational AI [43.77796322595561]
DCC Sidekickは、教育プログラムエラー説明を生成することで、既存のLLMベースのC/C++コンパイラを強化するWebベースのAIツールである。
959名の学生が11,222人のDCC Sidekickセッションに従事し、7週間で17,982件の誤りを報告した。
論文 参考訳(メタデータ) (2024-07-22T10:53:55Z) - Fiper: a Visual-based Explanation Combining Rules and Feature Importance [3.2982707161882967]
説明可能な人工知能は、いわゆるブラックボックスアルゴリズムの予測を説明するツールとテクニックを設計することを目的としている。
本稿では,特徴量と組み合わせたルールを視覚的に記述する手法を提案する。
論文 参考訳(メタデータ) (2024-04-25T09:15:54Z) - What Generative Artificial Intelligence Means for Terminological Definitions [0.0]
本稿では,ジェネレーティブ・人工知能(GenAI)ツールが用語定義の作成と消費に与える影響について検討する。
GenAIツールはAI支援のターミノグラフィー、特に編集後のターミノグラフィーを可能にする。
GenAIツールが、用語定義を含む利用者のすべての用語的ニーズを満たす可能性を、私たちが知っている用語的定義とリソースの存在に挑戦する。
論文 参考訳(メタデータ) (2024-02-25T16:36:51Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - LASP: Text-to-Text Optimization for Language-Aware Soft Prompting of
Vision & Language Models [67.19124099815645]
ベースクラスオーバーフィットを軽減するために,Language-Aware Soft Prompting (LASP) 学習手法を提案する。
LASPは本質的に、トレーニング中に仮想クラス、すなわちビジュアルサンプルが使用できないクラス名を含むことができる。
LASPは、手作りのプロンプトとCLIPによる11のテストデータセットのうち8つの新しいクラスの精度が初めて一致し、上回っている。
論文 参考訳(メタデータ) (2022-10-03T17:56:35Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z) - Word Sense Disambiguation for 158 Languages using Word Embeddings Only [80.79437083582643]
文脈における単語感覚の曖昧さは人間にとって容易であるが、自動的アプローチでは大きな課題である。
本稿では,学習前の標準単語埋め込みモデルを入力として,完全に学習した単語認識のインベントリを誘導する手法を提案する。
この手法を用いて、158の言語に対して、事前訓練されたfastText単語の埋め込みに基づいて、センスインベントリのコレクションを誘導する。
論文 参考訳(メタデータ) (2020-03-14T14:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。