論文の概要: Simulation-based Optimization for Augmented Reading
- arxiv url: http://arxiv.org/abs/2602.22735v1
- Date: Thu, 26 Feb 2026 08:17:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.593424
- Title: Simulation-based Optimization for Augmented Reading
- Title(参考訳): 拡張読解のためのシミュレーションに基づく最適化
- Authors: Yunpeng Bai, Shengdong Zhao, Antti Oulasvirta,
- Abstract要約: 本稿では,人文読解のリソース・レーショナルモデルに基づくシミュレーションに基づく最適化問題として,フレーミング拡張読解を提案する。
シミュレーションされた読者を用いた設計代替案を探索するオフラインアプローチと、進行中のインタラクションデータを用いてリアルタイムに読み出しインタフェースをパーソナライズするオンラインアプローチの2つの補完的な最適化パイプラインを導入する。
- 参考スコア(独自算出の注目度): 41.078746971366265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Augmented reading systems aim to adapt text presentation to improve comprehension and task performance, yet existing approaches rely heavily on heuristics, opaque data-driven models, or repeated human involvement in the design loop. We propose framing augmented reading as a simulation-based optimization problem grounded in resource-rational models of human reading. These models instantiate a simulated reader that allocates limited cognitive resources, such as attention, memory, and time under task demands, enabling systematic evaluation of text user interfaces. We introduce two complementary optimization pipelines: an offline approach that explores design alternatives using simulated readers, and an online approach that personalizes reading interfaces in real time using ongoing interaction data. Together, this perspective enables adaptive, explainable, and scalable augmented reading design without relying solely on human testing.
- Abstract(参考訳): 拡張読解システムは、テキストの提示を適応して理解とタスクのパフォーマンスを向上させることを目的としているが、既存のアプローチはヒューリスティック、不透明なデータ駆動モデル、あるいはデザインループへの人間的関与に大きく依存している。
本稿では,人文読解のリソース・レーショナルモデルに基づくシミュレーションに基づく最適化問題として,フレーミング拡張読解を提案する。
これらのモデルは、注意、記憶、タスク要求時の時間などの限られた認知リソースを割り当てるシミュレートされた読者をインスタンス化し、テキストユーザインタフェースの体系的な評価を可能にする。
シミュレーションされた読者を用いた設計代替案を探索するオフラインアプローチと、進行中のインタラクションデータを用いてリアルタイムに読み出しインタフェースをパーソナライズするオンラインアプローチの2つの補完的な最適化パイプラインを導入する。
この観点によって、適応的で説明可能な、スケーラブルな拡張読影設計が、人間のテストにのみ依存することなく実現される。
関連論文リスト
- Fints: Efficient Inference-Time Personalization for LLMs with Fine-Grained Instance-Tailored Steering [49.212940215720884]
本稿では,ユーザデータからサンプルレベルの干渉を生成し,モデルの前方通過に注入してパーソナライズするステアリングフレームワークを提案する。
本手法は,対話モードやコンテキスト長の異なる環境において,ロバスト性を保ちながら,高速シフト環境におけるパーソナライズ性能を著しく向上させる。
論文 参考訳(メタデータ) (2025-10-31T06:01:04Z) - See, Think, Act: Online Shopper Behavior Simulation with VLM Agents [58.92444959954643]
本稿では,視覚情報,特にWebページスクリーンショットのVLMによる動作シミュレーションへの統合について検討する。
我々は,協調行動予測と合理化生成にSFTを用いて,相互作用の完全な文脈を条件づける。
推論能力をさらに強化するため,RLを階層的な報酬構造と統合し,難易度因子によって拡張する。
論文 参考訳(メタデータ) (2025-10-22T05:07:14Z) - ConceptMix++: Leveling the Playing Field in Text-to-Image Benchmarking via Iterative Prompt Optimization [20.935028961216325]
ConceptMix++は、ビジュアルジェネレーション機能からプロンプトのフレーズをアンタングルするフレームワークである。
最適化されたプロンプトは構成生成性能を大幅に向上することを示す。
これらの結果から,厳密なベンチマーク手法が真のモデル能力を著しく過小評価している可能性が示唆された。
論文 参考訳(メタデータ) (2025-07-04T03:27:04Z) - Explainable Recommendation with Simulated Human Feedback [8.532115411106068]
提案する提案手法は,人為的なフィードバック駆動型最適化フレームワークである。
このフレームワークは、人中心で説明可能な要求を達成するために、高い労働コストを発生させることなく、動的にインタラクティブな最適化機構を使用する。
特に,大規模言語モデル(LLM)を人間のシミュレータとして利用して,学習プロセスの指針となる人間的なフィードバックを予測することを提案する。
論文 参考訳(メタデータ) (2025-04-19T02:46:10Z) - Improving Dynamic Object Interactions in Text-to-Video Generation with AI Feedback [130.090296560882]
テキスト・ビデオ・モデルにおけるオブジェクトの動的性を高めるためのフィードバックの利用について検討する。
本手法は,動的インタラクションにおける映像品質の大幅な向上を駆動するバイナリAIフィードバックを用いて,多様な報酬を効果的に最適化できることを示す。
論文 参考訳(メタデータ) (2024-12-03T17:44:23Z) - MotionRL: Align Text-to-Motion Generation to Human Preferences with Multi-Reward Reinforcement Learning [99.09906827676748]
我々は、テキスト・ツー・モーション生成タスクを最適化するために、Multi-Reward Reinforcement Learning(RL)を利用する最初のアプローチであるMotionRLを紹介する。
我々の新しいアプローチは、人間の知覚モデルに関する知識以前の人間の嗜好に基づいて、強化学習を用いて運動生成体を微調整する。
さらに、MotionRLは、テキストのアテンデンス、モーションクオリティ、人間の好みの最適性を近似する、新しい多目的最適化戦略を導入している。
論文 参考訳(メタデータ) (2024-10-09T03:27:14Z) - Enabling Real-Time Conversations with Minimal Training Costs [61.80370154101649]
本稿では,2つの言語モデルに対して,最小限の訓練を要し,2つの言語能力を持つ新しい重複復号法を提案する。
実験結果から,本手法はトレーニングコストの最小化とともに,ユーザとAIのインタラクションの自然性と人間的類似性を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-09-18T06:27:26Z) - Make The Most of Prior Data: A Solution for Interactive Text
Summarization with Preference Feedback [15.22874706089491]
我々は、好みのフィードバックで要約モデルを対話的に訓練する新しいフレームワークを導入する。
オフラインデータと新しい報酬モデルを適切に活用することにより、ROUGEスコアとサンプル効率に関する性能を向上させる。
論文 参考訳(メタデータ) (2022-04-12T03:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。