論文の概要: Classical AI vs. LLMs for Decision-Maker Alignment in Health Insurance Choices
- arxiv url: http://arxiv.org/abs/2510.06093v1
- Date: Tue, 07 Oct 2025 16:21:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.350292
- Title: Classical AI vs. LLMs for Decision-Maker Alignment in Health Insurance Choices
- Title(参考訳): 医療保険選択における意思決定者アライメントのための古典的AI vs. LLMs
- Authors: Mallika Mainali, Harsha Sureshbabu, Anik Sen, Christopher B. Rauch, Noah D. Reifsnyder, John Meyer, J. T. Turner, Michael W. Floyd, Matthew Molineaux, Rosina O. Weber,
- Abstract要約: 我々は,従来のAIモデルを実装し,大きな推論モデルと非推論モデルを用いて評価されたLLMに基づくアルゴリズム決定器を開発した。
リスク許容度の異なる3つの意思決定者を対象に,健康保険意思決定データセットをアノテートした2つのアプローチを評価した。
古典的なAIとLLMベースのモデルは属性ベースのターゲットと同等のアライメントを達成し、古典的なAIは適度なリスクプロファイルに対してわずかに優れたアライメントを示す。
- 参考スコア(独自算出の注目度): 0.11504020314498663
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As algorithmic decision-makers are increasingly applied to high-stakes domains, AI alignment research has evolved from a focus on universal value alignment to context-specific approaches that account for decision-maker attributes. Prior work on Decision-Maker Alignment (DMA) has explored two primary strategies: (1) classical AI methods integrating case-based reasoning, Bayesian reasoning, and naturalistic decision-making, and (2) large language model (LLM)-based methods leveraging prompt engineering. While both approaches have shown promise in limited domains such as medical triage, their generalizability to novel contexts remains underexplored. In this work, we implement a prior classical AI model and develop an LLM-based algorithmic decision-maker evaluated using a large reasoning model (GPT-5) and a non-reasoning model (GPT-4) with weighted self-consistency under a zero-shot prompting framework, as proposed in recent literature. We evaluate both approaches on a health insurance decision-making dataset annotated for three target decision-makers with varying levels of risk tolerance (0.0, 0.5, 1.0). In the experiments reported herein, classical AI and LLM-based models achieved comparable alignment with attribute-based targets, with classical AI exhibiting slightly better alignment for a moderate risk profile. The dataset and open-source implementation are publicly available at: https://github.com/TeX-Base/ClassicalAIvsLLMsforDMAlignment and https://github.com/Parallax-Advanced-Research/ITM/tree/feature_insurance.
- Abstract(参考訳): AIアライメントの研究は、普遍的な価値アライメントから、意思決定者属性を考慮に入れたコンテキスト固有のアプローチへと発展してきた。
DMA(Decision-Maker Alignment)に関する以前の研究は、(1)ケースベースの推論、ベイズ的推論、そして自然主義的意思決定を統合する古典的なAI手法と、(2)迅速なエンジニアリングを活用する大規模言語モデル(LLM)に基づく手法の2つの主要な戦略を探求してきた。
どちらのアプローチも医学的トリアージのような限られた領域において有望であることを示しているが、新しい文脈への一般化性はまだ未定である。
本研究では,従来のAIモデルを実装し,大規模推論モデル(GPT-5)と非推論モデル(GPT-4)を用いて評価したLLMベースのアルゴリズム決定器を開発する。
リスク許容度(0.0,0.5,1.0。
ここで報告された実験では、古典的なAIとLLMベースのモデルは属性ベースのターゲットと同等のアライメントを達成し、古典的なAIは適度なリスクプロファイルに対してわずかに優れたアライメントを示した。
データセットとオープンソース実装は、https://github.com/TeX-Base/ClassicalAIvsLLMsforDMAlignmentとhttps://github.com/Parallax-Advanced-Research/ITM/tree/feature_insuranceで公開されている。
関連論文リスト
- Towards a Cascaded LLM Framework for Cost-effective Human-AI Decision-Making [55.2480439325792]
複数の専門分野にまたがってタスクを適応的に委譲するLLM決定フレームワークを提案する。
まず、deferral Policyは、ベースモデルの回答を受け入れるか、あるいは大きなモデルでそれを再生するかを決定する。
第2に、禁忌ポリシーは、カスケードモデル応答が十分に確実であるか、または人間の介入を必要とするかを判定する。
論文 参考訳(メタデータ) (2025-06-13T15:36:22Z) - Time to Rethink AI for Combinatorial Optimization: Classical Algorithms Remain Tough to Match [36.092099713670414]
先進的なAIにインスパイアされた手法は、最先端の古典的解法であるKaMISによって一貫して性能が向上していることを示す。
LTFT(GNetをベースとする)のような非バックトラックAIメソッドは、最も単純な学位ベースの欲求と同様の推論に終わる。
論文 参考訳(メタデータ) (2025-02-05T23:24:47Z) - Systematic Characterization of the Effectiveness of Alignment in Large Language Models for Categorical Decisions [0.0]
本稿では,大規模言語モデル(LLM)において,医学的トリアージによるカテゴリー決定における選好アライメントを評価するための体系的手法を適用した。
また、アライメント手順が特定のモデルのアライメントをどのように効率的に変更するかを測定する。
その結果、モデル間のアライメントの有効性とアライメントアプローチの相違が明らかとなった。
論文 参考訳(メタデータ) (2024-09-18T19:03:04Z) - Making Large Language Models Better Planners with Reasoning-Decision Alignment [70.5381163219608]
マルチモーダリティ強化LLMに基づくエンドツーエンド意思決定モデルを提案する。
ペア化されたCoTと計画結果との推論・決定アライメントの制約を提案する。
提案する大規模言語プランナをRDA-Driverとして推論・決定アライメントする。
論文 参考訳(メタデータ) (2024-08-25T16:43:47Z) - Constrained Reinforcement Learning with Average Reward Objective: Model-Based and Model-Free Algorithms [34.593772931446125]
モノグラフは、平均報酬決定過程(MDPs)の文脈内で制約された様々なモデルベースおよびモデルフリーアプローチの探索に焦点を当てている
このアルゴリズムは制約付きMDPの解法として検討されている。
論文 参考訳(メタデータ) (2024-06-17T12:46:02Z) - Understanding the (Extra-)Ordinary: Validating Deep Model Decisions with Prototypical Concept-based Explanations [13.60538902487872]
本稿では, 実例的(地域的)かつクラス的(グローバル的)な意思決定戦略をプロトタイプを通じて伝達する, ポストホックなコンセプトベースXAIフレームワークを提案する。
我々は,3つのデータセットにまたがるアウト・オブ・ディストリビューション・サンプル,突発的なモデル行動,データ品質問題同定におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-28T10:53:26Z) - Provably Efficient UCB-type Algorithms For Learning Predictive State
Representations [55.00359893021461]
逐次決定問題は、予測状態表現(PSR)によってモデル化された低ランク構造が認められる場合、統計的に学習可能である
本稿では,推定モデルと実モデル間の全変動距離を上限とする新しいボーナス項を特徴とする,PSRに対する最初のUCB型アプローチを提案する。
PSRに対する既存のアプローチとは対照的に、UCB型アルゴリズムは計算的トラクタビリティ、最優先の準最適ポリシー、モデルの精度が保証される。
論文 参考訳(メタデータ) (2023-07-01T18:35:21Z) - A Survey of Contextual Optimization Methods for Decision Making under
Uncertainty [47.73071218563257]
この記事では、データからポリシーを学ぶための3つの主要なフレームワークを特定し、その強みと限界について論じる。
統一的な表記と用語の下で既存のモデルとメソッドを示し、これらを3つの主要なフレームワークに従って分類する。
論文 参考訳(メタデータ) (2023-06-17T15:21:02Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。