論文の概要: Personalized Decision Modeling: Utility Optimization or Textualized-Symbolic Reasoning
- arxiv url: http://arxiv.org/abs/2511.02194v1
- Date: Tue, 04 Nov 2025 02:19:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.776043
- Title: Personalized Decision Modeling: Utility Optimization or Textualized-Symbolic Reasoning
- Title(参考訳): パーソナライズド決定モデリング: ユーティリティ最適化とテキスト化シンボリック推論
- Authors: Yibo Zhao, Yang Zhao, Hongru Du, Hao Frank Yang,
- Abstract要約: 本稿では,最適な情報統合を実現するための適応型テキストシンボリックな人間中心推論フレームワークを提案する。
ATHENAは2つの段階を統合している: まず、堅牢でグループレベルのシンボル的ユーティリティ関数を発見する。
個人レベルのセマンティック適応を実装し、パーソナライズされた選択をモデル化するための最適なユーティリティによってガイドされるパーソナライズされたセマンティックテンプレートを作成する。
- 参考スコア(独自算出の注目度): 8.356559251767004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision-making models for individuals, particularly in high-stakes scenarios like vaccine uptake, often diverge from population optimal predictions. This gap arises from the uniqueness of the individual decision-making process, shaped by numerical attributes (e.g., cost, time) and linguistic influences (e.g., personal preferences and constraints). Developing upon Utility Theory and leveraging the textual-reasoning capabilities of Large Language Models (LLMs), this paper proposes an Adaptive Textual-symbolic Human-centric Reasoning framework (ATHENA) to address the optimal information integration. ATHENA uniquely integrates two stages: First, it discovers robust, group-level symbolic utility functions via LLM-augmented symbolic discovery; Second, it implements individual-level semantic adaptation, creating personalized semantic templates guided by the optimal utility to model personalized choices. Validated on real-world travel mode and vaccine choice tasks, ATHENA consistently outperforms utility-based, machine learning, and other LLM-based models, lifting F1 score by at least 6.5% over the strongest cutting-edge models. Further, ablation studies confirm that both stages of ATHENA are critical and complementary, as removing either clearly degrades overall predictive performance. By organically integrating symbolic utility modeling and semantic adaptation, ATHENA provides a new scheme for modeling human-centric decisions. The project page can be found at https://yibozh.github.io/Athena.
- Abstract(参考訳): 個人のための意思決定モデル、特にワクチンの接種のような高度なシナリオでは、しばしば人口の最適予測から分岐する。
このギャップは、数値的な属性(例えば、コスト、時間)と言語的影響(例えば、個人の好みと制約)によって形成される、個々の意思決定プロセスの特異性から生じる。
本稿では,Large Language Models (LLMs) の実用性理論とテキスト推論機能を活用し,最適な情報統合を実現するための適応型テキストシンボリックな人間中心推論フレームワーク (ATHENA) を提案する。
AtheNAは2つのステージを一意に統合する: まず、LLM拡張されたシンボル発見を通じて、堅牢でグループレベルのシンボルユーティリティ関数を発見する; 次に、個別レベルの意味適応を実装し、パーソナライズされた選択をモデル化するために最適なユーティリティによってガイドされるパーソナライズされたセマンティックテンプレートを作成する。
実世界の旅行モードとワクチン選択タスクで検証されたATHENAは、常にユーティリティベース、機械学習、その他のLLMベースのモデルより優れており、最強の最先端モデルよりもF1スコアを少なくとも6.5%引き上げている。
さらに、アブレーション研究により、AtheNAのどちらの段階も決定的かつ相補的であることが確認された。
シンボリック・ユーティリティ・モデリングとセマンティック・アダプションを有機的に統合することにより、ATHENAは人間中心の意思決定をモデル化するための新しいスキームを提供する。
プロジェクトのページはhttps://yibozh.github.io/Athena.orgにある。
関連論文リスト
- NextQuill: Causal Preference Modeling for Enhancing LLM Personalization [82.15961484963256]
因果選好モデルに基づく新しいパーソナライズフレームワークであるNextQuillを紹介する。
この洞察に基づいて、NextQuillは2つの補完的なアライメント戦略を導入した。
複数のパーソナライズベンチマークの実験により、NextQuillはパーソナライズ品質を大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-06-03T02:08:55Z) - Contextual Online Uncertainty-Aware Preference Learning for Human Feedback [13.478503755314344]
RLHF(Reinforcement Learning from Human Feedback)は人工知能において重要なパラダイムとなっている。
最適モデルに基づくオンライン意思決定と統計的推測を同時に行うための新しい統計的枠組みを提案する。
本稿では,大規模マルチタスク言語理解データセット上での大規模言語モデルのランク付けのための人間の嗜好データ分析に,提案手法を適用した。
論文 参考訳(メタデータ) (2025-04-27T19:59:11Z) - SELF: Surrogate-light Feature Selection with Large Language Models in Deep Recommender Systems [51.09233156090496]
ディープレコメンデータシステムのためのSurrogatE-Light特徴選択法
SELFは、大規模言語モデルからのセマンティック推論と、代理モデルからのタスク固有の学習を統合する。
実世界のレコメンデータプラットフォームからの3つの公開データセットに関する総合的な実験は、SELFの有効性を検証する。
論文 参考訳(メタデータ) (2024-12-11T16:28:18Z) - Hybrid Preferences: Learning to Route Instances for Human vs. AI Feedback [87.37721254914476]
我々はHyPERを紹介した。HyPERは、人間または言語モデル(LM)にアノテーションを付与するハイブリッド推論ルータである。
その結果,HyPERを用いた人工選好と直接選好の混合は,RewardBenchでは7-13%しか使用せず,RM性能が向上していることがわかった。
また、HyPERの機能を分析した結果、安全上の懸念や複雑さが人間のフィードバックから最も恩恵を受けていることがわかりました。
論文 参考訳(メタデータ) (2024-10-24T20:04:15Z) - From Efficiency to Equity: Measuring Fairness in Preference Learning [3.2132738637761027]
不平等とロウルシアン正義の経済理論に触発された嗜好学習モデルの公平性を評価する。
Gini Coefficient, Atkinson Index, Kuznets Ratio を用いて,これらのモデルの公平性を定量化するための指標を提案する。
論文 参考訳(メタデータ) (2024-10-24T15:25:56Z) - Self-supervised Preference Optimization: Enhance Your Language Model with Preference Degree Awareness [27.43137305486112]
本稿では,自己監督的選好度損失とアライメント損失を組み合わせた自己監督的選好度損失を構成する,新しい自己監督的選好最適化(SPO)フレームワークを提案する。
その結果,SPOを既存の好み最適化手法とシームレスに統合し,最先端性能を実現することができた。
論文 参考訳(メタデータ) (2024-09-26T12:37:26Z) - Secrets of RLHF in Large Language Models Part II: Reward Modeling [134.97964938009588]
本稿では,データセットにおける不正確で曖昧な嗜好の影響を軽減するために,一連の新しい手法を紹介する。
また、選択された応答と拒否された応答を区別する報酬モデルの有用性を高めるために、対照的な学習を導入する。
論文 参考訳(メタデータ) (2024-01-11T17:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。