論文の概要: Report-based Recommendations for Policy Making and Agency Operations: Dataset and LLM Evaluation
- arxiv url: http://arxiv.org/abs/2603.20287v1
- Date: Wed, 18 Mar 2026 09:15:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-24 19:11:38.804267
- Title: Report-based Recommendations for Policy Making and Agency Operations: Dataset and LLM Evaluation
- Title(参考訳): 政策立案・機関運営に関する報告に基づく勧告:データセットとLCM評価
- Authors: Aleksandra Edwards, Thomas Edwards, Jose Camacho-Collados, Alun Preece,
- Abstract要約: 大規模言語モデル(LLM)はテキスト生成タスクで広く使われている。
本稿では,私的・公的な組織内で活動する機関の今後の行動や改善を通知するためのレコメンデーションを作成できる新しいタスクを提案する。
- 参考スコア(独自算出の注目度): 40.753848899624366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are extensively used in text generation tasks. These generative capabilities bring us to a point where LLMs could potentially provide useful insights in policy making or agency operations. In this paper, we introduce a new task consisting of generating recommendations which can be used to inform future actions and improvements of agencies work within private and public organisations. In particular, we present the first benchmark and coherent evaluation for developing recommendation systems to inform organisation policies. This task is clearly different from usual product or user recommendation systems, but rather aims at providing a basis to suggest policy improvements based on the conclusions drawn from reports. Our results demonstrate that state-of-the-art LLMs have the potential to emphasize and reflect on key issues and learning points within generated recommendations.
- Abstract(参考訳): 大規模言語モデル(LLM)はテキスト生成タスクで広く使われている。
これらの生成能力は、LCMが政策立案や機関の運営に有用な洞察を提供する可能性があるポイントに私たちを導いてくれる。
本稿では,私的・公的な組織内で活動する機関の今後の行動や改善を通知するためのレコメンデーションを作成できる新しいタスクを紹介する。
特に、組織政策を通知するレコメンデーションシステムを開発するための最初のベンチマークとコヒーレントな評価を示す。
このタスクは、通常の製品やユーザレコメンデーションシステムと明らかに異なるが、むしろレポートから引き出された結論に基づいて、政策改善を提案するための基盤を提供することを目的としている。
以上の結果から,現在最先端のLLMは,生成したレコメンデーション内の重要な課題や学習ポイントを強調し,反映する可能性が示唆された。
関連論文リスト
- Towards Next-Generation LLM-based Recommender Systems: A Survey and Beyond [41.08716571288641]
本論では,本質的なレコメンデーションに端を発する新しい分類法を紹介する。
本稿では,レコメンデーションシステムの発達過程をより正確に反映した3層構造を提案する。
論文 参考訳(メタデータ) (2024-10-10T08:22:04Z) - Direct Preference Optimization for LLM-Enhanced Recommendation Systems [33.54698201942643]
大規模言語モデル(LLM)は、幅広い領域で顕著なパフォーマンスを示している。
我々は,DPOをLLM強化レコメンデーションシステムに統合するフレームワークであるDPO4Recを提案する。
大規模な実験により、DPO4Recは強いベースラインよりも性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-10-08T11:42:37Z) - Tapping the Potential of Large Language Models as Recommender Systems: A Comprehensive Framework and Empirical Analysis [91.5632751731927]
ChatGPTのような大規模言語モデルは、一般的なタスクを解く際、顕著な能力を示した。
本稿では,レコメンデーションタスクにおけるLLMの活用のための汎用フレームワークを提案し,レコメンデーションタスクとしてのLLMの機能に着目した。
提案手法は,提案手法が推薦結果に与える影響を解析し,提案手法とモデルアーキテクチャ,パラメータスケール,コンテキスト長について検討する。
論文 参考訳(メタデータ) (2024-01-10T08:28:56Z) - Empowering Few-Shot Recommender Systems with Large Language Models --
Enhanced Representations [0.0]
大規模言語モデル(LLM)は、明示的なフィードバックベースのレコメンデータシステムで遭遇する少数のシナリオに対処するための、新たな洞察を提供する。
我々の研究は、LLMがレコメンデーターシステムに関わっていることの多面的側面を深く掘り下げるために、研究者に刺激を与えることができる。
論文 参考訳(メタデータ) (2023-12-21T03:50:09Z) - RecMind: Large Language Model Powered Agent For Recommendation [16.710558148184205]
RecMindは、ゼロショットパーソナライズされたレコメンデーションを慎重に計画する自律的なレコメンデーションエージェントである。
実験の結果,RecMind は既存のゼロ/フェーショット LLM ベースのレコメンデーションベースライン手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-08-28T04:31:04Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。