論文の概要: Algorithms and Learning for Fair Portfolio Design
- arxiv url: http://arxiv.org/abs/2006.07281v1
- Date: Fri, 12 Jun 2020 16:00:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 03:41:37.815726
- Title: Algorithms and Learning for Fair Portfolio Design
- Title(参考訳): 公正ポートフォリオ設計のためのアルゴリズムと学習
- Authors: Emily Diana, Travis Dick, Hadi Elzayn, Michael Kearns, Aaron Roth,
Zachary Schutzman, Saeed Sharifi-Malvajerdi, Juba Ziani
- Abstract要約: 最適ポートフォリオ設計の古典的金融問題における変化を考察する。
私たちの設定では、消費者の大多数は、リスク許容性に関するいくつかの分布から引き出されます。
目標は、特定の、そして自然な技術的意味において、グループ間で公平な少数のポートフォリオを設計することである。
- 参考スコア(独自算出の注目度): 15.768460736106936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a variation on the classical finance problem of optimal portfolio
design. In our setting, a large population of consumers is drawn from some
distribution over risk tolerances, and each consumer must be assigned to a
portfolio of lower risk than her tolerance. The consumers may also belong to
underlying groups (for instance, of demographic properties or wealth), and the
goal is to design a small number of portfolios that are fair across groups in a
particular and natural technical sense.
Our main results are algorithms for optimal and near-optimal portfolio design
for both social welfare and fairness objectives, both with and without
assumptions on the underlying group structure. We describe an efficient
algorithm based on an internal two-player zero-sum game that learns
near-optimal fair portfolios ex ante and show experimentally that it can be
used to obtain a small set of fair portfolios ex post as well. For the special
but natural case in which group structure coincides with risk tolerances (which
models the reality that wealthy consumers generally tolerate greater risk), we
give an efficient and optimal fair algorithm. We also provide generalization
guarantees for the underlying risk distribution that has no dependence on the
number of portfolios and illustrate the theory with simulation results.
- Abstract(参考訳): 最適ポートフォリオ設計の古典的金融問題における変化を考察する。
我々の設定では、消費者の大多数は、リスク寛容性に関するいくつかの分布から引き出され、各消費者は、寛容性よりも低いリスクのポートフォリオに割り当てられなければならない。
消費者はまた、基盤となるグループ(例えば、人口特性や富)に属しており、その目標は、特定の自然な技術的意味においてグループ間で公平な少数のポートフォリオを設計することである。
我々の主な成果は,社会的福祉と公正の目的の両方に対する最適および準最適ポートフォリオ設計のアルゴリズムである。
そこで本研究では,公平なポートフォリオを学習する内部2人プレイのゼロサムゲームに基づく効率的なアルゴリズムについて述べる。
グループ構造がリスク許容性(富裕層が一般的により大きなリスクを許容する現実をモデル化する)と一致する特殊なケースに対しては、効率的かつ最適な公正なアルゴリズムを提供する。
また,ポートフォリオ数に依存しないリスク分布に対する一般化保証を提供し,シミュレーション結果を用いて理論を説明する。
関連論文リスト
- Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Uniform Pessimistic Risk and Optimal Portfolio [0.0]
本稿では,一様悲観的リスクと計算アルゴリズムという統合された$alpha$-riskのバージョンを提案し,そのリスクに基づいて最適なポートフォリオを得る。
株式市場が不安定な場合、提案された悲観的ポートフォリオが他のポートフォリオよりも堅牢なパフォーマンスを示すことが実証的に確認されている。
論文 参考訳(メタデータ) (2023-03-02T09:41:15Z) - Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency [0.0]
本稿では,PPVパリティ,偽脱落率(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(FOR)パリティ(Sufficiency)について述べる。
グループ固有のしきい値規則はPPVパリティとForパリティに最適であることを示す。
また,フェアネス制約を満たす最適決定規則の解も提供する。
論文 参考訳(メタデータ) (2022-06-05T18:47:34Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Deep Risk Model: A Deep Learning Solution for Mining Latent Risk Factors
to Improve Covariance Matrix Estimation [8.617532047238461]
ニューラルネットワークによるリスクファクタを効果的に"設計"するためのディープラーニングソリューションを提案する。
提案手法は,R2$で測定した説明分散を1.9%以上高めることができ,また,グローバルな最小分散ポートフォリオのリスクを低減することができる。
論文 参考訳(メタデータ) (2021-07-12T05:30:50Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Learning Risk Preferences from Investment Portfolios Using Inverse
Optimization [25.19470942583387]
本稿では,既存ポートフォリオからのリスク嗜好を逆最適化を用いて測定する手法を提案する。
我々は、20年間の資産価格と10年間の相互ファンドポートフォリオ保有からなる実市場データについて、本手法を実証する。
論文 参考訳(メタデータ) (2020-10-04T21:29:29Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。