論文の概要: Inverse Optimality for Fair Digital Twins: A Preference-based approach
- arxiv url: http://arxiv.org/abs/2512.01650v2
- Date: Tue, 09 Dec 2025 09:01:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 14:12:22.735794
- Title: Inverse Optimality for Fair Digital Twins: A Preference-based approach
- Title(参考訳): 公正なディジタル双生児のための逆最適性--選好に基づくアプローチ
- Authors: Daniele Masti, Francesco Basciani, Arianna Fedeli, Girgio Gnecco, Francesco Smarra,
- Abstract要約: 本研究は、最適化に基づくDigital Twinsにおいて、学習可能な目的として公正性を導入するフレームワークを提案する。
専用のシームズニューラルネットワークが開発され、コンテキスト情報に基づいて凸2次コスト関数を生成する。
このアプローチの有効性は、新型コロナウイルスの病院リソース割り当てシナリオで実証される。
- 参考スコア(独自算出の注目度): 1.5756571514779074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Digital Twins (DTs) are increasingly used as autonomous decision-makers in complex socio-technical systems. However, their mathematically optimal decisions often diverge from human expectations, revealing a persistent mismatch between algorithmic and bounded human rationality. This work addresses this challenge by proposing a framework that introduces fairness as a learnable objective within optimization-based Digital Twins. In this respect, a preference-driven learning workflow that infers latent fairness objectives directly from human pairwise preferences over feasible decisions is introduced. A dedicated Siamese neural network is developed to generate convex quadratic cost functions conditioned on contextual information. The resulting surrogate objectives drive the optimization procedure toward solutions that better reflect human-perceived fairness while maintaining computational efficiency. The effectiveness of the approach is demonstrated on a COVID-19 hospital resource allocation scenario. Overall, this work offers a practical solution to integrate human-centered fairness into the design of autonomous decision-making systems.
- Abstract(参考訳): デジタルツイン(Digital Twins, DT)は、複雑な社会技術システムにおいて、自律的な意思決定者としてますます使われている。
しかし、それらの数学的に最適な決定は、しばしば人間の期待から分岐し、アルゴリズムと有界な人間の合理性の間に永続的なミスマッチが現れる。
この研究は、最適化ベースのDigital Twinsにおいて、学習可能な目的として公正性を導入するフレームワークを提案することで、この問題に対処する。
この観点から、人間のペアワイズ選好から直接、潜在フェアネス目標を推測する嗜好駆動学習ワークフローを導入する。
専用のシームズニューラルネットワークが開発され、コンテキスト情報に基づいて凸2次コスト関数を生成する。
結果として得られるサロゲートの目的は、計算効率を保ちながら、人間の知覚された公正さをよりよく反映するソリューションへの最適化手順を推し進める。
このアプローチの有効性は、新型コロナウイルスの病院リソース割り当てシナリオで実証される。
全体として、この研究は、人間中心の公正さを自律的な意思決定システムの設計に組み込むための実践的なソリューションを提供する。
関連論文リスト
- Towards Human-AI Complementarity in Matching Tasks [18.703064369029022]
協調的なアプローチをとるデータ駆動型アルゴリズムマッチングシステムを提案する。
Comatchは最も自信のある決定のみを選択し、残りの決定を人間の意思決定者に委ねる。
その結果, マッチングによって生成されるマッチング結果が, ヒトの参加者, あるいはアルゴリズムのマッチングによって生成したマッチング結果よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-08-18T18:02:45Z) - Adaptive collaboration for online personalized distributed learning with heterogeneous clients [22.507916490976044]
ローカルトレーニングを加速するために, 統計的に異種なクライアントが協力して, オンラインパーソナライズ学習の課題をN$で検討した。
この設定における重要な課題は、導入したバイアスを緩和しながら分散を減らすために、関連する協力者を選択することである。
論文 参考訳(メタデータ) (2025-07-09T13:44:27Z) - Online Decision-Focused Learning [74.3205104323777]
意思決定中心学習(DFL)は、意思決定タスクで予測出力が使用されるモデルのトレーニングパラダイムとして、ますます人気が高まっている。
本稿では,目的関数を規則化し,その相違を解消し,非最適関数を克服する方法を検討する。
また、クナップサック実験におけるアルゴリズムの有効性を示し、2つの標準ベンチマークを上回りました。
論文 参考訳(メタデータ) (2025-05-19T10:40:30Z) - Contextual Online Uncertainty-Aware Preference Learning for Human Feedback [13.478503755314344]
RLHF(Reinforcement Learning from Human Feedback)は人工知能において重要なパラダイムとなっている。
最適モデルに基づくオンライン意思決定と統計的推測を同時に行うための新しい統計的枠組みを提案する。
本稿では,大規模マルチタスク言語理解データセット上での大規模言語モデルのランク付けのための人間の嗜好データ分析に,提案手法を適用した。
論文 参考訳(メタデータ) (2025-04-27T19:59:11Z) - Towards Objective and Unbiased Decision Assessments with LLM-Enhanced Hierarchical Attention Networks [6.520709313101523]
本研究では,人的専門家による高い意思決定過程における認知バイアスの識別について検討する。
人間の判断を超越したバイアス対応AI拡張ワークフローを提案する。
実験では,提案モデルとエージェントワークフローの両方が,人間の判断と代替モデルの両方において有意に改善されている。
論文 参考訳(メタデータ) (2024-11-13T10:42:11Z) - Balancing Optimality and Diversity: Human-Centered Decision Making through Generative Curation [6.980546503227467]
医療、物流、公共政策における運用上の決定には、候補ソリューションを推奨するアルゴリズムが関与する一方、最終的な選択は人間の意思決定者に任せる。
本稿では,可観測的目的と非可観測的質的考察の両方に依存する場合の推奨セットを最適に生成するフレームワークである生成的キュレーションを提案する。
私たちのフレームワークは、人間の判断を置き換えるのではなく、補完するアルゴリズムを設計する原則的な方法を提供する。
論文 参考訳(メタデータ) (2024-09-17T20:13:32Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - MaxMin-RLHF: Alignment with Diverse Human Preferences [101.57443597426374]
Reinforcement Learning from Human Feedback (RLHF) は、言語モデルと人間の嗜好を一致させる。
予測最大化アルゴリズムを用いて嗜好分布の混合を学習し、人間の嗜好をよりよく表現する。
従来のRLHFアルゴリズムよりも16%以上の勝利率向上を実現している。
論文 参考訳(メタデータ) (2024-02-14T03:56:27Z) - Estimating Barycenters of Distributions with Neural Optimal Transport [93.28746685008093]
本稿では,Wasserstein Barycenter問題を解くための新しいスケーラブルなアプローチを提案する。
我々の手法は最近のNeural OTソルバをベースとしている。
また,提案手法の理論的誤差境界も確立する。
論文 参考訳(メタデータ) (2024-02-06T09:17:07Z) - Data-Efficient Interactive Multi-Objective Optimization Using ParEGO [6.042269506496206]
多目的最適化は、競合する目的間の最適なトレードオフを提供する非支配的なソリューションの集合を特定することを目的としている。
実践的な応用では、意思決定者(DM)は実装すべき好みに合わせて単一のソリューションを選択する。
そこで本稿では,パレートフロントの最も好まれる領域を,高コストで評価できる2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-12T15:55:51Z) - Reinforcement Learning with Human Feedback: Learning Dynamic Choices via
Pessimism [91.52263068880484]
人間のフィードバックを用いたオフライン強化学習(RLHF)について検討する。
我々は、人間の選択によって引き起こされる一連の軌道から、人間の根底にある報酬とMDPの最適政策を学習することを目指している。
RLHFは、大きな状態空間だが人間のフィードバックが限られていること、人間の決定の有界な合理性、政治外の分散シフトなど、さまざまな理由から挑戦されている。
論文 参考訳(メタデータ) (2023-05-29T01:18:39Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Efficient Learning of Decision-Making Models: A Penalty Block Coordinate
Descent Algorithm for Data-Driven Inverse Optimization [12.610576072466895]
我々は、意思決定プロセスを明らかにするために、事前の意思決定データを使用する逆問題を考える。
この統計的学習問題は、データ駆動逆最適化と呼ばれる。
そこで本稿では,大規模問題を解くために,効率的なブロック座標降下に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-27T12:52:56Z) - Human-AI Collaboration in Decision-Making: Beyond Learning to Defer [4.874780144224057]
意思決定における人間-AIコラボレーション(HAIC)は、人間とAIシステム間の相乗的チームを作ることを目的としている。
Learning to Defer(L2D)は、人間とAIのどちらが決定を下すべきかを決定する、有望なフレームワークとして提示されている。
L2Dは、すべてのケースで人間からの予測が利用可能になったり、意思決定者から独立した地道なラベルが利用可能になったりするなど、しばしば実現不可能な要件がいくつか含まれている。
論文 参考訳(メタデータ) (2022-06-27T11:40:55Z) - The Statistical Complexity of Interactive Decision Making [126.04974881555094]
複雑度尺度であるDecision-Estimation Coefficientは,サンプル効率のインタラクティブ学習に必要かつ十分であることが証明された。
統合アルゴリズム設計原則であるE2Dは、教師付き推定のための任意のアルゴリズムを、意思決定のためのオンラインアルゴリズムに変換する。
論文 参考訳(メタデータ) (2021-12-27T02:53:44Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Resource Allocation via Model-Free Deep Learning in Free Space Optical
Communications [119.81868223344173]
本稿では,自由空間光学(FSO)通信におけるチャネルフェージング効果の緩和のための資源配分の一般的な問題について検討する。
本フレームワークでは,FSO資源割り当て問題を解決する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-27T17:38:51Z) - Decentralized Reinforcement Learning: Global Decision-Making via Local
Economic Transactions [80.49176924360499]
我々は、シーケンシャルな意思決定問題を解決するために、単純で専門的で自己関心のあるエージェントの社会を指示する枠組みを確立する。
我々は分散強化学習アルゴリズムのクラスを導出する。
我々は、より効率的な移動学習のための社会固有のモジュラー構造の潜在的な利点を実証する。
論文 参考訳(メタデータ) (2020-07-05T16:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。