論文の概要: In-context Inverse Optimality for Fair Digital Twins: A Preference-based approach
- arxiv url: http://arxiv.org/abs/2512.01650v1
- Date: Mon, 01 Dec 2025 13:23:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.861075
- Title: In-context Inverse Optimality for Fair Digital Twins: A Preference-based approach
- Title(参考訳): 公正なディジタル双生児のための文脈内逆最適性--選好に基づくアプローチ
- Authors: Daniele Masti, Francesco Basciani, Arianna Fedeli, Girgio Gnecco, Francesco Smarra,
- Abstract要約: 本研究では,人間同士の嗜好から直接潜在フェアネス目標を推定する嗜好駆動学習パイプラインを提案する。
コンテキスト情報に基づく凸2次コスト関数を生成するために,新しいシームズニューラルネットワークを開発した。
- 参考スコア(独自算出の注目度): 1.5756571514779074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Digital Twins (DTs) are increasingly used as autonomous decision-makers in complex socio-technical systems. Their mathematically optimal decisions often diverge from human expectations, exposing a persistent gap between algorithmic and bounded human rationality. This work addresses this gap by proposing a framework that operationalizes fairness as a learnable objective within optimization-based Digital Twins. We introduce a preference-driven learning pipeline that infers latent fairness objectives directly from human pairwise preferences over feasible decisions. A novel Siamese neural network is developed to generate convex quadratic cost functions conditioned on contextual information. The resulting surrogate objectives align optimization outcomes with human-perceived fairness while maintaining computational efficiency. The approach is demonstrated on a COVID-19 hospital resource allocation scenario. This study provides an actionable path toward embedding human-centered fairness in the design of autonomous decision-making systems.
- Abstract(参考訳): デジタルツイン(Digital Twins, DT)は、複雑な社会技術システムにおいて、自律的な意思決定者としてますます使われている。
彼らの数学的に最適な決定は、しばしば人間の期待から分岐し、アルゴリズムと有界な人間の合理性の間に永続的なギャップを露呈する。
この研究は、最適化ベースのDigital Twinsにおいて、公正性を学習可能な目的として運用するフレームワークを提案することで、このギャップに対処する。
そこで我々は,人間同士の嗜好を直接推定する,嗜好駆動型学習パイプラインを導入する。
コンテキスト情報に基づく凸2次コスト関数を生成するために,新しいシームズニューラルネットワークを開発した。
結果として得られるサロゲート目的は、計算効率を保ちながら、最適化結果と人間の知覚した公正さを一致させる。
このアプローチは、新型コロナウイルスの病院リソース割り当てシナリオで実証されている。
本研究は,自律型意思決定システムの設計において,人間中心の公平性を組み込むための実用的な経路を提供する。
関連論文リスト
- Towards Human-AI Complementarity in Matching Tasks [18.703064369029022]
協調的なアプローチをとるデータ駆動型アルゴリズムマッチングシステムを提案する。
Comatchは最も自信のある決定のみを選択し、残りの決定を人間の意思決定者に委ねる。
その結果, マッチングによって生成されるマッチング結果が, ヒトの参加者, あるいはアルゴリズムのマッチングによって生成したマッチング結果よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-08-18T18:02:45Z) - Online Decision-Focused Learning [74.3205104323777]
意思決定中心学習(DFL)は、意思決定タスクで予測出力が使用されるモデルのトレーニングパラダイムとして、ますます人気が高まっている。
本稿では,目的関数を規則化し,その相違を解消し,非最適関数を克服する方法を検討する。
また、クナップサック実験におけるアルゴリズムの有効性を示し、2つの標準ベンチマークを上回りました。
論文 参考訳(メタデータ) (2025-05-19T10:40:30Z) - Contextual Online Uncertainty-Aware Preference Learning for Human Feedback [13.478503755314344]
RLHF(Reinforcement Learning from Human Feedback)は人工知能において重要なパラダイムとなっている。
最適モデルに基づくオンライン意思決定と統計的推測を同時に行うための新しい統計的枠組みを提案する。
本稿では,大規模マルチタスク言語理解データセット上での大規模言語モデルのランク付けのための人間の嗜好データ分析に,提案手法を適用した。
論文 参考訳(メタデータ) (2025-04-27T19:59:11Z) - Towards Objective and Unbiased Decision Assessments with LLM-Enhanced Hierarchical Attention Networks [6.520709313101523]
本研究では,人的専門家による高い意思決定過程における認知バイアスの識別について検討する。
人間の判断を超越したバイアス対応AI拡張ワークフローを提案する。
実験では,提案モデルとエージェントワークフローの両方が,人間の判断と代替モデルの両方において有意に改善されている。
論文 参考訳(メタデータ) (2024-11-13T10:42:11Z) - Estimating Barycenters of Distributions with Neural Optimal Transport [93.28746685008093]
本稿では,Wasserstein Barycenter問題を解くための新しいスケーラブルなアプローチを提案する。
我々の手法は最近のNeural OTソルバをベースとしている。
また,提案手法の理論的誤差境界も確立する。
論文 参考訳(メタデータ) (2024-02-06T09:17:07Z) - Reinforcement Learning with Human Feedback: Learning Dynamic Choices via
Pessimism [91.52263068880484]
人間のフィードバックを用いたオフライン強化学習(RLHF)について検討する。
我々は、人間の選択によって引き起こされる一連の軌道から、人間の根底にある報酬とMDPの最適政策を学習することを目指している。
RLHFは、大きな状態空間だが人間のフィードバックが限られていること、人間の決定の有界な合理性、政治外の分散シフトなど、さまざまな理由から挑戦されている。
論文 参考訳(メタデータ) (2023-05-29T01:18:39Z) - Human-AI Collaboration in Decision-Making: Beyond Learning to Defer [4.874780144224057]
意思決定における人間-AIコラボレーション(HAIC)は、人間とAIシステム間の相乗的チームを作ることを目的としている。
Learning to Defer(L2D)は、人間とAIのどちらが決定を下すべきかを決定する、有望なフレームワークとして提示されている。
L2Dは、すべてのケースで人間からの予測が利用可能になったり、意思決定者から独立した地道なラベルが利用可能になったりするなど、しばしば実現不可能な要件がいくつか含まれている。
論文 参考訳(メタデータ) (2022-06-27T11:40:55Z) - The Statistical Complexity of Interactive Decision Making [126.04974881555094]
複雑度尺度であるDecision-Estimation Coefficientは,サンプル効率のインタラクティブ学習に必要かつ十分であることが証明された。
統合アルゴリズム設計原則であるE2Dは、教師付き推定のための任意のアルゴリズムを、意思決定のためのオンラインアルゴリズムに変換する。
論文 参考訳(メタデータ) (2021-12-27T02:53:44Z) - Resource Allocation via Model-Free Deep Learning in Free Space Optical
Communications [119.81868223344173]
本稿では,自由空間光学(FSO)通信におけるチャネルフェージング効果の緩和のための資源配分の一般的な問題について検討する。
本フレームワークでは,FSO資源割り当て問題を解決する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-27T17:38:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。