論文の概要: Evaluating Generative AI Tools for Personalized Offline Recommendations: A Comparative Study
- arxiv url: http://arxiv.org/abs/2508.03710v1
- Date: Tue, 22 Jul 2025 02:47:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-10 09:30:49.336576
- Title: Evaluating Generative AI Tools for Personalized Offline Recommendations: A Comparative Study
- Title(参考訳): 個人化されたオフラインレコメンデーションのための生成AIツールの評価:比較研究
- Authors: Rafael Salinas-Buestan, Otto Parra, Nelly Condori-Fernandez, Maria Fernanda Granda,
- Abstract要約: ジェネレーティブAIツールは、さまざまなドメインでパーソナライズされたレコメンデーションをサポートすることに、ますます重要になっている。
本研究は、反復的外傷のリスクがある個人に適した非デジタルアクティビティを推奨する場合、最も広く使用されている5つの生成AIツールの性能とユーザ満足度を評価する。
- 参考スコア(独自算出の注目度): 2.503968994462208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: Generative AI tools have become increasingly relevant in supporting personalized recommendations across various domains. However, their effectiveness in health-related behavioral interventions, especially those aiming to reduce the use of technology, remains underexplored. Aims: This study evaluates the performance and user satisfaction of the five most widely used generative AI tools when recommending non-digital activities tailored to individuals at risk of repetitive strain injury. Method: Following the Goal/Question/Metric (GQM) paradigm, this proposed experiment involves generative AI tools that suggest offline activities based on predefined user profiles and intervention scenarios. The evaluation is focused on quantitative performance (precision, recall, F1-score and MCC-score) and qualitative aspects (user satisfaction and perceived recommendation relevance). Two research questions were defined: RQ1 assessed which tool delivers the most accurate recommendations, and RQ2 evaluated how tool choice influences user satisfaction.
- Abstract(参考訳): 背景: 生成型AIツールは、さまざまなドメインでパーソナライズされたレコメンデーションをサポートするために、ますます重要になっている。
しかし、健康関連行動介入における効果、特にテクノロジーの使用を減らすことを目的としたものについては、未解明のままである。
Aims: この研究は、反復的外傷のリスクがある個人に適した非デジタルアクティビティを推奨する場合、最も広く使用されている5つの生成AIツールのパフォーマンスとユーザ満足度を評価します。
メソッド: Goal/Question/Metric(GQM)パラダイムに従って、提案された実験は、事前に定義されたユーザプロファイルと介入シナリオに基づいてオフラインアクティビティを提案する生成AIツールを含む。
評価は,定量的評価(精度,リコール,F1スコア,MCCスコア)と質的側面(ユーザの満足度と推奨度)に焦点を当てた。
RQ1はどのツールが最も正確なレコメンデーションを提供するかを評価し、RQ2はツールの選択がユーザの満足度にどのように影響するかを評価した。
関連論文リスト
- TestAgent: An Adaptive and Intelligent Expert for Human Assessment [62.060118490577366]
対話型エンゲージメントによる適応テストを強化するために,大規模言語モデル(LLM)を利用したエージェントであるTestAgentを提案する。
TestAgentは、パーソナライズされた質問の選択をサポートし、テストテイカーの応答と異常をキャプチャし、動的で対話的なインタラクションを通じて正確な結果を提供する。
論文 参考訳(メタデータ) (2025-06-03T16:07:54Z) - Performance evaluation of predictive AI models to support medical decisions: Overview and guidance [9.674673298809324]
本稿では,医療実践における予測AIモデルの有効性を検証する際に,古典的,現代的パフォーマンス指標のメリットを評価することを目的とする。
ここでは,5つのパフォーマンス領域(識別,校正,総合,分類,臨床ユーティリティ)を対象として,グラフィカルな評価を伴う32のパフォーマンス指標について論じる。
論文 参考訳(メタデータ) (2024-12-13T17:11:47Z) - Designing and evaluating an online reinforcement learning agent for
physical exercise recommendations in N-of-1 trials [0.9865722130817715]
オンライン強化学習エージェントによるパーソナライズされた介入の実装が実現可能か,有効かを検証した,革新的なN-of-1トライアルデザインを提案する。
その結果、まず、オンライン強化学習エージェントによるパーソナライズされた介入を実装することは可能であった。
第二に、このような適応的介入は、わずかな観察しか得られなくても、患者の利益を改善する可能性がある。
論文 参考訳(メタデータ) (2023-09-25T14:08:21Z) - Learning and Evaluating Human Preferences for Conversational Head
Generation [101.89332968344102]
そこで我々は,異なる次元の定量的評価に基づいて,人間の嗜好を適合させる学習ベース評価尺度であるPreference Score(PS)を提案する。
PSは人間のアノテーションを必要とせずに定量的評価を行うことができる。
論文 参考訳(メタデータ) (2023-07-20T07:04:16Z) - A Meta-Learning Method for Estimation of Causal Excursion Effects to Assess Time-Varying Moderation [0.0]
DR-W」は、メタラーナーの観点から因果抽出効果を推定するための、柔軟で二重に頑健な推論法である。
提案する推定器の双方向特性を理論的およびシミュレーションにより比較する。
結果は、観察不足や不確実な治療ランダム化確率であっても、一貫した、より効率的な見積もりを示す。
論文 参考訳(メタデータ) (2023-06-28T15:19:33Z) - Position: AI Evaluation Should Learn from How We Test Humans [65.36614996495983]
人間の評価のための20世紀起源の理論である心理測定は、今日のAI評価における課題に対する強力な解決策になり得る、と我々は主張する。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z) - Interpretable Off-Policy Evaluation in Reinforcement Learning by
Highlighting Influential Transitions [48.91284724066349]
強化学習におけるオフ政治評価は、医療や教育などの領域における将来の成果を改善するために観察データを使用する機会を提供する。
信頼区間のような従来の尺度は、ノイズ、限られたデータ、不確実性のために不十分である可能性がある。
我々は,人間専門家が政策評価評価評価の妥当性を分析できるように,ハイブリッドAIシステムとして機能する手法を開発した。
論文 参考訳(メタデータ) (2020-02-10T00:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。