論文の概要: Towards LLM-Based Usability Analysis for Recommender User Interfaces
- arxiv url: http://arxiv.org/abs/2511.14359v1
- Date: Tue, 18 Nov 2025 11:05:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.068148
- Title: Towards LLM-Based Usability Analysis for Recommender User Interfaces
- Title(参考訳): LLMによるレコメンダユーザインタフェースのユーザビリティ分析に向けて
- Authors: Sebastian Lubos, Alexander Felfernig, Damian Garber, Viet-Man Le, Thi Ngoc Trang Tran,
- Abstract要約: 我々は,マルチモーダルな大規模言語モデルの可能性を探り,レコメンダシステムインタフェースのユーザビリティを評価する。
複数のレコメンデーションプラットフォームからユーザインターフェースのスクリーンショットを取り込み、好みの誘惑とレコメンデーションのプレゼンテーションシナリオの両方をカバーします。
- 参考スコア(独自算出の注目度): 41.966962052550656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Usability is a key factor in the effectiveness of recommender systems. However, the analysis of user interfaces is a time-consuming process that requires expertise. Recent advances in multimodal large language models (LLMs) offer promising opportunities to automate such evaluations. In this work, we explore the potential of multimodal LLMs to assess the usability of recommender system interfaces by considering a variety of publicly available systems as examples. We take user interface screenshots from multiple of these recommender platforms to cover both preference elicitation and recommendation presentation scenarios. An LLM is instructed to analyze these interfaces with regard to different usability criteria and provide explanatory feedback. Our evaluation demonstrates how LLMs can support heuristic-style usability assessments at scale to support the improvement of user experience.
- Abstract(参考訳): ユーザビリティは、レコメンダシステムの有効性の鍵となる要素である。
しかし、ユーザインタフェースの分析は専門知識を必要とする時間を要するプロセスである。
マルチモーダル大規模言語モデル(LLM)の最近の進歩は、そのような評価を自動化するための有望な機会を提供する。
本研究では, マルチモーダル LLM の可能性を探り, 様々な公開システムに着目して, 推薦システムインタフェースのユーザビリティを評価する。
これらの推奨プラットフォームからユーザインターフェースのスクリーンショットを取り込み、好みの誘惑とレコメンデーションのプレゼンテーションシナリオの両方をカバーします。
LLMは、ユーザビリティ基準の異なるインターフェースを解析し、説明的フィードバックを提供するよう指示される。
本評価は,LLMがヒューリスティックなユーザビリティ評価を大規模にサポートし,ユーザエクスペリエンスの向上を支援する方法を示す。
関連論文リスト
- MLLM as a UI Judge: Benchmarking Multimodal LLMs for Predicting Human Perception of User Interfaces [97.62557395494962]
GPT-4o、Claude、Llamaを30のインターフェースでベンチマークするためにクラウドソーシングを使用します。
以上の結果から,MLLMは特定の次元において人間の嗜好を近似するが,他の次元では異なってしまうことが示唆された。
論文 参考訳(メタデータ) (2025-10-09T20:00:41Z) - Towards Recommending Usability Improvements with Multimodal Large Language Models [40.77787659104315]
ユーザビリティテストや検査などの一般的な評価手法は、有効だがリソース集約であり、専門家の関与を必要とする。
マルチモーダルLCMの最近の進歩は、ユーザビリティ評価プロセスを自動化するための有望な機会を提供する。
以上の結果から,LCMがより高速で低コストなユーザビリティ評価を可能にする可能性が示唆された。
論文 参考訳(メタデータ) (2025-08-22T07:38:37Z) - RecSys Arena: Pair-wise Recommender System Evaluation with Large Language Models [40.74293642666989]
提案するRecSys Arenaでは,2種類のレコメンデーションシステムによるレコメンデーション結果がLLM審査員によって評価され,きめ細かい評価フィードバックが得られる。
我々は多くの異なるLCMが標準オフラインメトリクスと高度に一致した一般的な評価結果を提供することを示した。
AUCやnDCGと同等の性能の異なるアルゴリズムを区別できる。
論文 参考訳(メタデータ) (2024-12-15T05:57:36Z) - Leveraging LLMs for Influence Path Planning in Proactive Recommendation [34.5820082133773]
プロアクティブなレコメンデーターシステムは ユーザーの興味を 徐々に 歴史的な関心を超えて ターゲットアイテムとして 導くことを目的としています
IRSは、影響経路計画のためのシーケンシャルモデルを設計するが、対象項目の包摂性や経路コヒーレンスに欠ける問題に直面している。
協調的かつ効果的な影響経路を生成するLLM-IPP法を提案する。
論文 参考訳(メタデータ) (2024-09-07T13:41:37Z) - Can Large Language Models be Trusted for Evaluation? Scalable
Meta-Evaluation of LLMs as Evaluators via Agent Debate [74.06294042304415]
エージェント・ディベート支援型メタ評価フレームワークであるScaleEvalを提案する。
フレームワークのコードをGitHubで公開しています。
論文 参考訳(メタデータ) (2024-01-30T07:03:32Z) - Tapping the Potential of Large Language Models as Recommender Systems: A Comprehensive Framework and Empirical Analysis [91.5632751731927]
ChatGPTのような大規模言語モデルは、一般的なタスクを解く際、顕著な能力を示した。
本稿では,レコメンデーションタスクにおけるLLMの活用のための汎用フレームワークを提案し,レコメンデーションタスクとしてのLLMの機能に着目した。
提案手法は,提案手法が推薦結果に与える影響を解析し,提案手法とモデルアーキテクチャ,パラメータスケール,コンテキスト長について検討する。
論文 参考訳(メタデータ) (2024-01-10T08:28:56Z) - Empowering Few-Shot Recommender Systems with Large Language Models --
Enhanced Representations [0.0]
大規模言語モデル(LLM)は、明示的なフィードバックベースのレコメンデータシステムで遭遇する少数のシナリオに対処するための、新たな洞察を提供する。
我々の研究は、LLMがレコメンデーターシステムに関わっていることの多面的側面を深く掘り下げるために、研究者に刺激を与えることができる。
論文 参考訳(メタデータ) (2023-12-21T03:50:09Z) - Unlocking the Potential of User Feedback: Leveraging Large Language
Model as User Simulator to Enhance Dialogue System [65.93577256431125]
本稿では,ユーザガイド応答最適化 (UGRO) という代替手法を提案し,タスク指向の対話モデルと組み合わせる。
このアプローチでは、アノテーションのないユーザシミュレータとしてLLMを使用して対話応答を評価し、より小型のエンドツーエンドTODモデルと組み合わせる。
提案手法は従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-06-16T13:04:56Z) - Rethinking the Evaluation for Conversational Recommendation in the Era
of Large Language Models [115.7508325840751]
近年の大規模言語モデル(LLM)の成功は、より強力な対話レコメンデーションシステム(CRS)を開発する大きな可能性を示している。
本稿では,ChatGPTの会話レコメンデーションへの活用について検討し,既存の評価プロトコルが不十分であることを明らかにする。
LLMをベースとしたユーザシミュレータを用いた対話型評価手法iEvaLMを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:12:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。