論文の概要、ライセンス

# (参考訳) 最適化による公正性 [全文訳有]

Fairness through Optimization ( http://arxiv.org/abs/2102.00311v1 )

ライセンス: CC BY 4.0
Violet (Xinying) Chen, J.N. Hooker(参考訳) AIに基づく意思決定モデルにおける公平性を形式化する一般的なパラダイムとして最適化を提案する。 最適化モデルは、高度に高度なソリューション技術を活用すると同時に、社会福祉機能として幅広い公正基準を定式化することができると論じる。 本稿では,ニューラルネットワーク,サポートベクターマシン,ルールベースシステムといった文脈において,適切な制約を受ける社会福祉関数を最大化することにより,公平性指向の意思決定を支援する最適化モデルを提案する。 特に、公平性や公平性と効率性の組み合わせを測定するさまざまな機能のためのトラクタブル最適化モデルについて述べる。 これには、いくつかの不等式メトリクス、rawlsian criteria、mclooneとhoover indices、alpha fairness、nashとkalai-smorodinskyの交渉ソリューション、rawlsianとutilitarian criteriaの組み合わせ、統計バイアス測度が含まれる。 これらのモデルはすべて、線形プログラミング、混合整数/線形プログラミング、または(2つのケースで)特殊な凸プログラミング方法によって効率的に解くことができる。

We propose optimization as a general paradigm for formalizing fairness in AI-based decision models. We argue that optimization models allow formulation of a wide range of fairness criteria as social welfare functions, while enabling AI to take advantage of highly advanced solution technology. We show how optimization models can assist fairness-oriented decision making in the context of neural networks, support vector machines, and rule-based systems by maximizing a social welfare function subject to appropriate constraints. In particular, we state tractable optimization models for a variety of functions that measure fairness or a combination of fairness and efficiency. These include several inequality metrics, Rawlsian criteria, the McLoone and Hoover indices, alpha fairness, the Nash and Kalai-Smorodinsky bargaining solutions, combinations of Rawlsian and utilitarian criteria, and statistical bias measures. All of these models can be efficiently solved by linear programming, mixed integer/linear programming, or (in two cases) specialized convex programming methods.
公開日: Sat, 30 Jan 2021 21:11:14 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 b e F 2 1 2 0 2 b e F 2 0.85
] I A . s c [ 【私】 A! sc [ 0.59
2 v 1 1 3 0 0 2 v 1 1 3 0 0 0.85
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
Fairness through Optimization∗ 最適化による公正性* 0.42
Violet (Xinying) Chen and J. N. Hooker Violet (Xinying) Chen と J.N. Hooker 0.96
xinyingc@andrew.cmu. edu, jh38@andrew.cmu.edu xinyingc@andrew.cmu. edu, jh38@andrew.cmu.edu 0.55
Carnegie Mellon University カーネギーメロン大学 0.61
January 2021 Abstract 2021年1月 概要 0.52
We propose optimization as a general paradigm for formalizing fairness in AI-based decision models. AIに基づく意思決定モデルにおける公平性を形式化する一般的なパラダイムとして最適化を提案する。 0.55
We argue that optimization models allow formulation of a wide range of fairness criteria as social welfare functions, while enabling AI to take advantage of highly advanced solution technology. 最適化モデルは、高度に高度なソリューション技術を活用すると同時に、社会福祉機能として幅広い公正基準を定式化することができると論じる。 0.73
We show how optimization models can assist fairness-oriented decision making in the context of neural networks, support vector machines, and rule-based systems by maximizing a social welfare function subject to appropriate constraints. 本稿では,ニューラルネットワーク,サポートベクターマシン,ルールベースシステムといった文脈において,適切な制約を受ける社会福祉関数を最大化することにより,公平性指向の意思決定を支援する最適化モデルを提案する。 0.62
In particular, we state tractable optimization models for a variety of functions that measure fairness or a combination of fairness and efficiency. 特に、公平性や公平性と効率性の組み合わせを測定するさまざまな機能のためのトラクタブル最適化モデルについて述べる。 0.66
These include several inequality metrics, Rawlsian criteria, the McLoone and Hoover indices, alpha fairness, the Nash and Kalai-Smorodinsky bargaining solutions, combinations of Rawlsian and utilitarian criteria, and statistical bias measures. これには、いくつかの不等式メトリクス、rawlsian criteria、mclooneとhoover indices、alpha fairness、nashとkalai-smorodinskyの交渉ソリューション、rawlsianとutilitarian criteriaの組み合わせ、統計バイアス測度が含まれる。 0.65
All of these models can be efficiently solved by linear programming, mixed integer/linear programming, or (in two cases) specialized convex programming methods. これらのモデルはすべて、線形プログラミング、混合整数/線形プログラミング、または(2つのケースで)特殊な凸プログラミング方法によって効率的に解くことができる。 0.68
Artificial intelligence is increasingly used not only to solve problems, but to recommend action decisions that range from awarding mortgage loans to granting parole. 人工知能は、問題の解決だけでなく、ローンローンの付与から仮釈放まで幅広い行動決定を推奨するためにも使われるようになっている。 0.54
The prospect of making decisions immediately raises the question of ethics and fairness. 意思決定の見通しはすぐに倫理と公平性の問題を引き起こします。 0.64
If ethical norms are to be incorporated into artificial decision making, these norms must somehow be automated or formalized. 倫理規範が人工意思決定に組み込まれている場合、これらの規範は何らかの形で自動化または形式化されなければならない。 0.52
The leading approaches to this challenge include • value alignment, which strives to train or modify AI systems to reflect human ethical values automat- この課題に対する主要なアプローチには、人間の倫理的価値観を自動反映するAIシステムのトレーニングまたは修正を試みる価値アライメントがあります。 0.64
ically (Allen et al. 略称はAllen et al。 0.60
[2005], Russell [2019], Gabriel [2020]); [2005], Russell [2019], Gabriel [2020]) 0.59
• logical formulations of ethical and fairness principles that attempt to represent them precisely enough to govern a rule-based AI system (Bringsjord et al. • ルールベースのaiシステム(bringsjord et al.)を統治するのに十分な正確な表現を試みる倫理的・公正原則の論理的定式化。 0.69
[2006], Lindner et al. 2006年、リンドナーら。 0.46
[2020], Hooker and Kim [2018]); and [2020], Hooker and Kim [2018]), そして 0.64
• statistical fairness metrics that aim to ensure that benefits are allocated equitably (Dwork et al. 一 利益が均等に配分されることを保証するための統計的公正度指標(Dwork et al) 0.63
[2012], Mehrabi et al. [2012], Mehrabi et al。 0.74
[2019], Chouldechova and Roth [2020]). [2019], Chouldechova and Roth [2020]) 0.62
Each of these approaches can be useful in a suitable context. これらのアプローチのそれぞれは、適切なコンテキストで有用である。 0.61
We wish to propose, however, a promising tool for formalizing ethics and fairness that has received less attention: しかし我々は、あまり注目されなかった倫理と公正を形式化する有望なツールを提案したい。 0.64
• optimization, which allows one to achieve equity or fairness by maximizing a social welfare function. • 社会福祉機能を最大化することにより、公平性や公平性を達成できる最適化。 0.68
Welfare economics has long used social welfare functions to measure the desirability of a given distribution of benefits and costs. 福祉経済学は長い間、与えられた利益とコストの分配の望ましさを測定するために社会福祉機能を使用してきた。
訳抜け防止モード: 福祉経済学は長い間 社会福祉機能を 所定の利益とコストの分配の望ましさを測定する。
0.72
These functions can be designed to represent any of a wide range of conceptions of fairness and equity. これらの関数はフェアネスとエクイティの幅広い概念のどれかを表現するように設計できる。 0.67
They allow one to harness powerful optimization solvers, developed over a period of 80 80以上の期間に開発された強力な最適化ソルバを 0.59
∗ Relevant disciplines: fairness in AI, optimization methods, optimization modeling, ethics, welfare economics. ∗ 関連分野:AIの公正性、最適化方法、最適化モデリング、倫理、福祉経済学。 0.79
1 1 0.85
英語(論文から抽出)日本語訳スコア
years or more, to achieve equity by maximizing social welfare—a task that can be carried out automatically by computer. 数年以上、社会福祉を最大化することでエクイティを達成する。これはコンピュータによって自動的に実行できるタスクです。
訳抜け防止モード: 年数や年数などを)分担する 社会福祉の最大化 - コンピュータによって自動的に実行されるタスク。
0.67
Optimization methods are of course already employed in AI to train neural networks, calibrate support vector machines, solve clustering problems, and the like. 最適化メソッドは、もちろん、ニューラルネットワークのトレーニング、サポートベクターマシンのキャリブレーション、クラスタリング問題の解決など、AIですでに使用されている。 0.72
Our proposal is to harness the power of optimization to identify ethical and fair decisions. 我々の提案は、倫理的および公正な決定を識別する最適化の力を活用することである。 0.63
Achieving fairness by maximizing a social welfare function (SWF) offers at least two advantages in addition to the employment of optimization technology. 社会福祉機能(SWF)の最大化による公正化は、最適化技術の活用に加えて、少なくとも2つの利点がある。 0.68
One is that it allows one considerable flexibility to represent constraints on the problem. ひとつは、問題に対する制約をかなり柔軟に表現できることです。 0.77
Decisions are normally made in the context of resource constraints or other limitations on possible options. 決定は通常、リソースの制約や他の可能なオプションの制限のコンテキストで行われます。 0.72
These can be represented as constraints in the optimization problem, as nearly all state-of-the-art optimization methods are designed for constrained optimization. ほぼすべての最先端最適化手法は制約付き最適化のために設計されているため、これらは最適化問題の制約として表すことができる。 0.59
Also, a complex SWF can often be simplified by adding constraints to the optimization problem, resulting in a problem that is easier to solve. また、複雑なSWFは最適化問題に制約を加えることで単純化されることが多く、解決し易い問題となる。 0.78
Another advantage of maximizing a SWF is that equity and efficiency are naturally combined in an SWF. SWFを最大化するもう1つの利点は、株式と効率がSWFに自然に組み合わされることです。 0.69
There is frequently an efficiency or utilitarian criterion along with an equity criterion in AI-based decision making, such as predictive accuracy or economic benefit. 予測精度や経済的な利益など、AIベースの意思決定において、効率性や実用的基準と同等の基準がしばしば存在する。 0.67
A properly designed SWF can combine utilitarian and fairness criteria in principled ways. 適切に設計されたSWFは、実用性と公正性の基準を原則的に組み合わせることができる。 0.57
For example, the proportional fairness SWF, already widely used in engineering, balances throughput (utility) and fairness in a fashion that can be given theoretical justification. 例えば、既に工学で広く使われている比例フェアネス SWF は、理論的に正当化できる方法でスループット(実用性)と公正さのバランスをとる。 0.75
One can of course maximize a pure efficiency objective subject to a constraint on inequality or some other measure of inequity, but this provides no principled way of balancing efficiency against equity. もちろん、不平等や他の不平等の指標に制約される純粋な効率目標を最大化することができるが、これは株式に対する効率のバランスをとる原則的な方法を提供しない。 0.66
Formulation of a SWF encourages one to think explicitly about how they should be balanced, as well as allowing one to govern the equity/efficiency trade-off with one or more parameters. SWFの定式化は、バランスをとる方法を明確に考えることと、1つ以上のパラメータでエクイティ/効率のトレードオフを管理することを推奨します。 0.71
In any event, maximizing a SWF sacrifices no generality, because one can always implement a constraint on inequity by penalizing constraint violations in the SWF. いずれにせよ、SWFの最大化は一般性を犠牲にしない。なぜなら、SWFの制約違反を罰することで、常に不等式に制約を課すことができるからである。
訳抜け防止モード: いずれにせよ、SWFの最大化は一般性を犠牲にしない。 SWFの制約違反を罰することにより、常に不等式に対する制約を実装することができる。
0.61
As a running example, we consider a bank’s decision as to which applicants for mortgage loans should receive loans, based on individual credit profiles. 実行中の例として、個々の信用プロファイルに基づいて、住宅ローンの申請者がローンを受け取るべき銀行の決定を検討します。 0.73
We wish to identify decisions that maximize social welfare, subject to a constraint on the amount of funds available. 我々は、利用可能な資金の量に制約を受け、社会福祉を最大化する決定を特定したい。 0.69
Social welfare is a function of the utilities enjoyed by each of the stakeholders involved, including the applicants, the bank, and perhaps other parties such as stockholders and the community at large. 社会福祉(英: social welfare)は、申請者、銀行、そしておそらくは株主やコミュニティなど、関係者のそれぞれが享受するユーティリティの機能である。
訳抜け防止モード: 社会福祉は、関係する各利害関係者が享受する公益事業の機能である。 申請者、銀行、そしておそらく株主やコミュニティなど他の当事者も含む。
0.57
The utilities are, in turn, a function of the funds allocated to each applicant. ユーティリティは、順番に、各申請者に割り当てられた資金の機能です。 0.60
They can be measured as wealth, negative cost, or some broader type of benefit that is affected by the loan decisions. それらは、富、負のコスト、あるいはローン決定に影響されるより広範な種類の利益として測定できる。 0.71
A neural network or support vector machine for the mortgage loan problem would normally be trained to maximize the accuracy of predicting loan defaults or their probability. 住宅ローン問題のニューラルネットワークまたはサポートベクターマシンは、通常、ローンのデフォルトまたはその確率を予測する精度を最大化するために訓練される。
訳抜け防止モード: ローンローン問題に対するニューラルネットワークまたはサポートベクターマシンは通常訓練される ローンのデフォルトまたはその確率を予測する精度を最大化する。
0.77
This implies a concern with efficiency, since greater predictive accuracy results in a more efficient use of capital and perhaps greater welfare overall. これは、より高い予測精度が資本のより効率的な利用とおそらくより大きな福祉をもたらすので、効率への懸念を意味します。 0.64
The social welfare function can be designed to take into account the distribution of utilities as well as total net utility, thus balancing equity and efficiency. 社会福祉機能は、公共事業の分配と総純益を考慮に入れ、株式と効率のバランスをとるように設計されている。 0.66
AI technology would then be designed to maximize social welfare rather than simply predictive accuracy. AI技術は、単に予測精度ではなく、社会福祉を最大化するように設計されている。
訳抜け防止モード: AI技術が設計され 単なる予測精度ではなく 社会福祉を最大化します
0.82
For example, machine learning (e.g. 例えば、機械学習(例)。 0.76
neural networks) could be used to predict the probability of default, and optimization then used to make loan decisions. ニューラルネットワーク)はデフォルトの確率を予測するために使用され、最適化はローン決定に使用される。 0.79
Social welfare maximization can also be incorporated into a support vector machine or into purely rule-based AI. 社会福祉の最大化は、サポートベクターマシンまたは純粋にルールベースのAIに組み込むこともできます。 0.68
Our contribution in this paper, aside from pointing out the potential of optimization as a general paradigm for achieving fairness, is to show how to formulate a number of fairness-related SWFs as tractable optimization problems. 本稿では、公正性を達成するための一般的なパラダイムとして最適化の可能性を挙げる以外に、多くの公正性関連SWFを抽出可能な最適化問題として定式化する方法を示す。 0.67
Much of the art of optimization is formulating the problem in a way that makes it suitable for existing solvers. 最適化の技術の多くは、既存の問題解決者に適した方法で問題を定式化している。 0.70
We draw upon known modeling techniques for some of the SWFs and introduce new techniques for others. 我々は、一部のSWFのための既知のモデリング手法を描き、新しい手法を導入する。 0.67
To our knowledge, most of these formulations do not appear in the AI literature or elsewhere. 私たちの知る限り、これらの定式化のほとんどはai文学などには現れない。 0.55
The paper is organized as follows. 論文は以下の通り整理される。 0.65
In Section 1, we begin with introducing the optimization problem of maximizing a social welfare function in a general resource allocation context. 第1節では,一般資源割当コンテキストにおいて社会福祉機能を最大化する最適化問題の導入から始める。 0.78
We demonstrate concrete specifications of this social welfare optimization model on our running example of a bank’s decision to grant mortgage loans, and state our assumptions on the linearity of constraints. 我々は、この社会福祉最適化モデルの具体的仕様を、銀行が融資融資を認可するという決定の実施例に示し、制約の線形性に関する仮定を述べる。 0.75
In Section 2, we discuss related work on optimization methods for fair and ethical decision making that appears in the optimization, machine learning and AI literature, and distinguish this paper’s contribution from previous research. 第2節では、最適化、機械学習、AI文学に現れる公平かつ倫理的な意思決定のための最適化手法に関する関連研究について論じ、この論文の貢献を以前の研究と区別する。 0.68
We then study four types of fairness seeking schemes and present tractable optimization formulations for a variety of fairness measures. 次に、4種類のフェアネススキームを探索し、様々なフェアネス尺度に対するトラクタブル最適化の定式化を示す。 0.60
The first type we examine uses an inequality measure as the SWF and evaluates fairness based on まず,不平等尺度をSWFとして用い,公平性を評価する。 0.61
2 2 0.85
英語(論文から抽出)日本語訳スコア
the degree of equality in the utility distribution (Section 3). 実用性分布における等価性の程度(第3節)。 0.69
The second scheme defines fairness as giving a certain amount of priority to less advantaged stakeholders in the social welfare optimization problem (Section 4). 第2のスキームは、公正性を定義し、社会福祉最適化問題における利害関係者の少ない利害関係者に一定の優先順位を与える(第4章)。 0.57
The third type of methods handles the important challenge of balancing fairness and efficiency through optimizing SWFs that combine the two objectives (Section 5). 第3の方法は、2つの目的を組み合わせたSWFを最適化することによって公平性と効率のバランスをとるという重要な課題に対処する(第5節)。 0.63
Lastly, in Section 6, we discuss fairness in support vector machines to eliminate disparity in treatment received by different groups as well as to maximize social welfare in general. 最後に,第6節では,支援ベクターマシンの公平性を論じ,異なるグループによる治療の格差を解消し,社会福祉全般を最大化する。 0.79
1 The Basic Optimization Problem The general problem of maximizing social welfare can be stated 1 基本最適化問題 社会福祉を最大化する一般的な問題は 0.74
(cid:8)W(cid:0)U (x)(cid:1) | x ∈ Sx (cid:8)W(cid:0)U (x)(cid:1) | x ∈ Sx 0.89
(cid:9) (1) (cid:9) (1) 0.82
max x where x = (x1, . マックス x x = (x1, )。 0.78
. . , xn) is a vector of resources distributed across stakeholders 1, . . . xn)は利害関係者1に分散したリソースのベクトルである。 0.80
. . , n, and U = (U1, . . . , n, U = (U1, .) である。 0.82
. . , Un) is a vector of utility functions corresponding to the stakeholders. . . , un) は利害関係者に対応するユーティリティ関数のベクトルである。 0.84
Also Sx is the set of feasible values of x, and W is a social welfare function. また、Sxはxの可能な値の集合であり、Wは社会福祉関数である。 0.79
The problem maximizes social welfare over all feasible resource allocations. この問題は、すべての実現可能な資源割り当てに対する社会福祉を最大化する。 0.54
It is convenient to model the utility functions U using constraints, because this results in problems better 制約を使ってユーティリティ関数 U をモデル化することは便利である。
訳抜け防止モード: 制約を使ってユーティリティ関数Uをモデル化することは便利である。 問題がより良くなるからです
0.71
suited for optimization solvers. 最適化解法に適している。 0.57
We therefore write (1) as したがって、(1)を記す。 0.68
(cid:8)W (cid:48) (cid:8)W(cid:48) 0.78
(u) | (x, u) ∈ Sxu (u) | (x, u) ∈ Sxu 0.85
(cid:9) (2) where u is a vector of utilities, and Sxu is defined so that (x, u) ∈ Sxu implies x ∈ Sx and u ≤ U (x). (cid:9) 2) ここで u はユーティリティのベクトルであり、Sxu は (x, u) ∈ Sxu が x ∈ Sx と u ≤ U (x) を意味するように定義される。 0.84
The function W (cid:48) is a possibly simplified version of W that yields an equivalent optimization problem due to constraints defining Sxu. 関数 W (cid:48) は W の簡略化版であり、Sxu を定義する制約により等価な最適化問題を引き起こす。 0.80
We illustrate this maneuver throughout the paper. 私たちはこの操作を全紙で説明します。 0.60
max x,u 1.1 Example: Mortgage loans max x,u 1.1例:住宅ローン 0.80
set Sxu could be defined in part by the budget constraint(cid:80) In the mortgage problem described earlier, we can let IA be the set of loan applicants and IB the set of other stakeholders, such as the bank. set Sxu は予算制約によって部分的に定義することができます(cid:80) 先述の住宅ローン問題では、IA をローン申請者の集合とし、IB を銀行などの他の利害関係者の集合とすることができます。 0.67
Then xi for i ∈ IA is the loan amount allocated to applicant i. すると i ∈ IA の xi は、申請者 i に割り当てられたローン金額である。 0.67
The feasible i xi ≤ H, where H is the amount of available funds. 可能なi xi ≤ Hは、Hは利用可能な資金の量です。 0.78
We would also have constraints xi ≤ hi, where hi = 0 for i ∈ IB, and hi is the requested loan amount for i ∈ IA. また、制約 xi ≤ hi があり、ここでは i ∈ ib に対して hi = 0 であり、hi は i ∈ ia の要求されたローン金額である。 0.76
(cid:80) In a very simple version of the mortgage model, we could define Ui(x) = aixi for i ∈ IA and Ui(x) = i ripixi for i ∈ IB. (cid:80) 住宅ローンモデルの非常に単純なバージョンでは、i ∈ IA の Ui(x) = aixi と i ∈ IB の Ui(x) = i ripixi を定義することができる。 0.93
Here ai is a constant that roughly indicates the utility value of loan dollars to applicant i, and pi is the probability that applicant i will repay the loan. ここでaiは、申請者iに対する融資金の実用価値を概ね表す定数であり、piは、申請者iがローンを返済する確率である。 0.67
Also ri for i ∈ B is the total rate of return to stakeholder i over the lifetime of the loans. また、i ∈ B の ri はローンの存続期間における利害関係者 i への返却率である。 0.75
The social welfare function W is nonlinear in general but can be converted to a linear W (cid:48) in many cases if appropriate constraints are included. 社会福祉関数 w は一般に非線形であるが、適切な制約を含む場合、多くの場合、線型 w (cid:48) に変換できる。 0.75
To take a simple example, a maximin criterion W (u) = mini{ui} can be linearized by letting W (cid:48)(u) = w and adding constraints w ≤ ui for all i. 簡単な例を挙げると、極大基準 w (u) = mini{ui} は w (cid:48)(u) = w とし、すべての i に対して制約 w ≤ ui を追加することで線型化することができる。 0.79
Then the social welfare maximization problem is 社会福祉の最大化問題は 0.61
w (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12) はじまり (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12) 0.69
max x,u,w ui ≤(cid:80) (cid:80) max x,u,w ui ≤(cid:80) (cid:80) 0.87
ui ≤ aixi, i ∈ IA ui ≤ aixi, i ∈ IA 0.85
rjpjxj, i ∈ IB w ≤ ui, 0 ≤ xi ≤ hi, all i rjpjxj, i ∈ IB w ≤ ui, 0 ≤ xi ≤ hi, all i 0.85
j∈IA i∈IA xi ≤ H j∈IA i∈IA xi ≤ H 0.68
 We note that the constraints and objective function are linear and therefore define an easily solved linear programming problem.  制約と目的関数は線形であるので,容易に解くことができる線形計画問題を定義する。 0.80
The probabilities pi of default for the set IA of current mortgage applicants can be estimated by machine learning, and the optimization model can be applied to these applicants to arrive at fair loan decisions. 現在の住宅ローン申請者のセットIAの既定確率piを機械学習により推定することができ、これらの申請者に最適化モデルを適用して公正なローン決定を行うことができる。 0.76
An alternative approach is to solve the optimization problem for a pre-defined set IA of hypothetical applicants, each associated with certain financial characteristics. 別のアプローチは、特定の財務特性に関連する仮説的な申請者の事前定義されたセットIAの最適化問題を解決することです。 0.68
The probability of repayment for each hypothetical 仮説ごとに返済される確率 0.72
3 3 0.85
英語(論文から抽出)日本語訳スコア
applicant could again be estimated by machine learning, using the pre-defined characteristics as input to the neural network. ニューラルネットワークへの入力として、事前に定義された特性を使用して、再度機械学習によって見積もることができる。 0.59
Then each new applicant could be awarded or denied a loan based on the solution of the optimization problem and the hypothetical applicant i to which the new applicant is most similar. 次に、各新規出願人は、最適化問題の解決と、新規出願が最もよく似た仮説iに基づいて、ローンを付与又は拒否することができる。 0.67
If the optimal solution partially funds an applicant i (i.e., 0 < xi < hi), the bank could make a judgment call as to whether to grant the loan, or else solve a variant of the optimization problem that requires xi ∈ {0, hi}. 最適解が部分的に申請者i(すなわち 0 < xi < hi )に資金を供給する場合、銀行は融資を許可するか、またはxi ∈ {0, hi} を必要とする最適化問題の変種を解決すべきかを判断することができる。 0.83
The latter is accomplished by introducing 0–1 variables δi and solving the problem 後者は 0–1 変数 δi を導入し、問題を解くことで実現する。 0.66
w (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12) はじまり (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12) 0.69
max x,u,w,δ max x,u,w,δ 0.85
 ui ≤ βixi, i ∈ IA  ui ≤ βixi, i ∈ IA 0.90
ui ≤(cid:80) w ≤ ui, all i; (cid:80) ui ≤(cid:80) w ≤ ui, all i; (cid:80) 0.99
rjpjxj, i ∈ IB xi = hiδi, δi ∈ {0, 1}, all i xi ≤ H rjpjxj, i ∈ IB xi = hiδi, δi ∈ {0, 1}, all i xi ≤ H 0.92
j∈IB i∈IA (3) j∈IB i∈IA (3) 0.68
The 0–1 variables make the problem harder to solve, but it is a mixed integer/linear programming problem, for which solution technology is highly advanced. 0-1変数は問題を解くのを難しくするが、それは混合整数/線形プログラミング問題であり、解技術は非常に高度である。 0.72
It is likely to be solved without difficulty, since it is not posed for all individuals in the training set. トレーニングセット内のすべての個人に当てはまるものではないため、難易度なく解決される可能性が高い。 0.74
Rather, it is solved for applicants currently under consideration, or for hypothetical applicants as described above. むしろ、現在検討中の出願人、または上記の仮定の出願人によって解決される。 0.59
1.2 Linearity assumption for constraints We will assume for the present discussion that the feasible set Sxu is defined by a linear system Ax + Bu ≤ b, aside from any integrality conditions on the variables. 1.2 制約に対する線形性仮定 現在の議論では、可能な集合 Sxu は変数上の任意の積分条件を除いて線型系 Ax + Bu ≤ b によって定義されると仮定する。 0.80
This simplifies the optimization problem while providing a great deal of modeling flexibility. これは最適化の問題を単純化し、多くのモデリングの柔軟性を提供します。 0.62
For example, the assumption is satisfied when two conditions are met: (a) the constraints on feasible resource allocations x are linear, which is normally the case (as when there are one or more budget constraints), and (b) utilities ui are a linear or concave function of resources (the latter indicating the typical situation of decreasing returns to scale) and can therefore be approximated by a concave piecewise linear function. 例えば、この仮定は、2つの条件を満たすときに満たされる: (a) 実現可能なリソース割り当て x 上の制約は線型であり、これは通常、(1つ以上の予算制約があるような)場合であり、 (b) ユーティリティ ui はリソースの線型あるいは凹凸関数(後者は縮小の典型的な状況を示す)であり、したがって凹凸部分線型関数によって近似することができる。 0.86
These conditions are met by the mortgage problem and a wide variety of other decision problems. これらの条件は住宅ローン問題と他の様々な決定問題によって満たされる。 0.76
We do not assume that the social welfare function W is linear, and it is in fact nonlinear in most interesting cases. 社会福祉関数 W が線形であるとは考えておらず、実際には最も興味深いケースでは非線形である。 0.71
Yet we can convert a nonlinear W to a linear W (cid:48) in almost all of the optimization models described here. しかし、ここで述べたほとんど全ての最適化モデルにおいて、非線形 W を線型 W (cid:48) に変換することができる。 0.73
In fact, all of the models are of one of the following types: 実際、全てのモデルは以下の1つのタイプである。 0.72
• Linear programming (LP). •線形プログラミング(LP)。 0.70
This is an optimization problem with continuous variables, a linear objective function, and linear inequality and/or equality constraints. これは連続変数、線形目的関数、線形不等式および/または等式制約の最適化問題である。 0.76
It is extremely well solved using the simplex method or an interior point method. それは簡単な方法か内部ポイント方法を使用して非常によく解決されます。 0.64
Computation time is not an issue except for truly huge instances. 計算時間は本当に巨大なインスタンスを除いて問題ではない。 0.65
• Mixed integer/linear programming (MILP). •混合整数/線形プログラミング(MILP)。 0.84
This is an LP problem except that some variables are discrete (in our case, 0–1). これは一部の変数が離散的である(我々の場合、0–1)以外はLPの問題である。 0.68
It is a combinatorial problem but is often tractable for hundreds or even thousands of discrete variables using state-of-the-art software. これは組合せ問題であるが、最先端のソフトウェアを使って数百から数千の離散変数を扱いやすい。 0.68
• Convex nonlinear programming with linear constraints. •線形制約付き凸非線形プログラミング。 0.79
These is an LP problem except for a convex nonlinear (in one case, quadratic) objective function. これらは凸非線形(ある場合は二次的)目的関数を除いてLP問題である。 0.78
Only two models have this form and can be efficiently solved by a quadratic programming, reduced gradient, or other specialized method. 2つのモデルだけがこの形式を持ち、二次プログラミング、縮小勾配、または他の特殊な方法で効率的に解くことができます。 0.65
2 Previous Work We briefly survey two research streams on optimization and fairness, one from the optimization literature, and one from the AI literature. これまでの作業2 最適化文献から,最適化文献から,AI文献から,最適化と公平性に関する2つの研究ストリームを簡潔に調査する。 0.62
The former stream focuses on formulating optimization models to represent practical problems where fairness is an important concern, such as resource allocation, capacity planning, routing, scheduling and so forth. 前者のストリームは、リソース割り当て、キャパシティプランニング、ルーティング、スケジューリングなど、公平性が重要な関心事である実用的な問題を表すために最適化モデルの構築に焦点を当てている。 0.56
While some of these applications appear in AI research, we are concerned in this paper with understanding how optimization can be viewed more broadly as a general paradigm for formulating fairness by maximizing social welfare. これらの応用のいくつかはAI研究に現れているが、社会福祉を最大化して公正を定式化するための一般的なパラダイムとして、いかに最適化が広く見られるかを理解することに関心がある。 0.58
A comprehensive survey of fairness in the optimization literature is provided by Karsu and Morton (2015). 最適化文学における公正性に関する総合的な調査は、Karsu and Morton (2015)によって提供された。 0.56
4 4 0.85
英語(論文から抽出)日本語訳スコア
Bandwidth allocation in telecommunication networks is a popular application studied in early works on fair resource allocation (Luss [1999], Ogryczak and ´Sliwi´nski [2002], Ogryczak et al. 通信ネットワークにおける帯域割り当ては、早期に公正資源割り当て(Luss [1999], Ogryczak and ́Sliwi ́nski [2002], Ogryczak et al)で研究された一般的な応用である。 0.80
[2008]). For problems in this domain, a standard strategy is to define an objective function that is consistent with a Rawlsian criterion, and then to solve the corresponding model to obtain equitable allocations that optimize the worst performance among activities or services that compete for bandwidth. [2008]). この領域の問題に対して、標準的な戦略は、rawlsの基準と一致する客観的関数を定義し、対応するモデルを解き、帯域幅を競うアクティビティやサービスの中で最悪のパフォーマンスを最適化する公平な割り当てを得る。 0.67
Iancu and Trichakis (2014) studied fairness in the context of portfolio optimization, and used an optimization model to determine a portfolio design that would attain desirable trade-offs between optimal trading performance and equitable cost-sharing among accounts. iancu と trichakis (2014) はポートフォリオ最適化の文脈で公平性を研究し、最適取引性能とアカウント間の公平なコスト共有の間の望ましいトレードオフを達成するポートフォリオ設計を決定するために最適化モデルを使用した。 0.73
Project assignment is another application where fairness is often relevant, as the involved stakeholders may have different preferences over projects. プロジェクトの割り当ては、関係する利害関係者がプロジェクトよりも異なる好みを持つ可能性があるため、公平性がしばしば関係する別のアプリケーションです。
訳抜け防止モード: プロジェクトの割り当ては 利害関係者はプロジェクトに対して異なる好みを持つ可能性があるため、公平性はしばしば関連します。
0.66
For instance, Chiarandini et al. 例えば、Chiarandini et al。 0.56
(2019) worked with a real-life decision to assign projects to university students. (2019年)は、学生にプロジェクトを割り当てる実生活的な決定を行った。 0.70
They formulated the allocation problem as a MILP model and compared the empirical performance of using SWFs that capture different fairness-efficiency balancing principles as objective functions. 彼らは、割り当て問題をMILPモデルとして定式化し、異なる公平性と効率のバランスの原則を客観的な機能として捉えるSWFの使用の実証性能を比較した。 0.56
Fair optimization has also received attention in humanitarian operations. 公正な最適化は人道活動にも注目されている。 0.48
Eisenhandler and Tzur (2019) studied an important logistical challenge in food bank operations, food pickup and distribution. Eisenhandler と Tzur (2019) は食品銀行の経営、食品のピックアップ、流通において重要な論理的課題を研究した。 0.59
They designed a routing resource allocation model to seek both fair allocation of food to different agency locations and efficient delivery of as much food as possible. 彼らは、異なる代理店に食料を公平に割り当てることと、できるだけ効率的に食料を届けることの両方を求めるために、ルーティングリソース割り当てモデルを設計した。 0.56
Mostajabdaveh et al. Mostajabdaveh et al。 0.76
(2019) considered a disaster preparation task of selecting shelter locations and assigning neighborhoods to shelters. (2019)は,避難所の選択や避難所の割り当てを行う防災作業について検討した。 0.63
To make fair and efficient decisions while accounting for uncertainty, they used a stochastic programming model to optimize an objective function related to the Gini coefficient. 不確実性を考慮しながら公平かつ効率的な決定を行うため、彼らは確率的プログラミングモデルを用いて、ジニ係数に関連する目的関数を最適化した。
訳抜け防止モード: 不確実性を考慮しつつ公平かつ効率的な決定を行う。 彼らは確率的プログラミングモデルを使い Gini係数に関連する目的関数を最適化する。
0.72
Recent AI research has developed efficient algorithms that take fairness into account. 最近のAI研究は、公平性を考慮に入れた効率的なアルゴリズムを開発した。 0.60
This effort differs from our proposal in that it develops algorithms to solve specific problems that have a fairness component, rather than formulating optimization models that can be submitted to state-of-the-art software. この取り組みは、最先端のソフトウェアに提出できる最適化モデルを定義するのではなく、公平性コンポーネントを持つ特定の問題を解決するためのアルゴリズムを開発するという私たちの提案とは異なります。 0.65
Algorithmic design tasks are often associated with fair matching decisions, such as kidney exchange (McElfresh and Dickerson [2018]), paper-reviewer assignment in peer review (Stelmakh et al. アルゴリズム設計タスクは、しばしば腎臓交換(McElfresh and Dickerson [2018])、ピアレビューにおけるペーパーリビューアーの割り当て(Stelmakh et al.)など、公正なマッチング決定に関連しています。 0.74
[2019]), or online decision procedures for a complex situation such as ridesharing (Nanda et al. [2019])、あるいはライドシェアリング(Nandaなど)のような複雑な状況に対するオンライン意思決定手順。 0.71
[2020]). Fair machine learning is a rapidly growing field in recent years. [2020]). 公正な機械学習は近年急速に成長している分野だ。 0.66
Fair ML methods in literature can be categorized as pre-, in-, or post-processing approaches, which respectively attain fairness by modifying standard ML methods before, during, or after the training phase. 文学における公正なMLメソッドは、前処理、内処理、後処理のアプローチに分類することができ、トレーニングフェーズの前後で標準のMLメソッドを変更することで、それぞれ公平性を得ることができる。 0.61
A main difference between our proposal and the majority of literature is how fairness is defined and measured. 私たちの提案と文学の大多数との主な違いは、公平性の定義と測定方法です。 0.75
ML fairness requires the elimination of bias and discrimination and is measured in terms of predictions from ML models, while we adopt a utility- and welfare-based view of fairness. ML公平性は偏見と差別の排除を必要とし、MLモデルからの予測の観点から測定されます。
訳抜け防止モード: MLの公平性はバイアスと差別の排除を必要とし、MLモデルからの予測の観点から測定される。 実用性と福祉性 - 公平性に基づく視点を採用するのです。
0.62
However, some recent research has discussed the usefulness of a social-welfare-maxim ization perspective in fair ML (Heidari et al. しかし、近年の研究では、fair ml(heidari et al)における社会福祉最大化視点の有用性が議論されている。 0.50
[2018], Hu and Chen [2020]). [2018], Hu and Chen [2020]) 0.60
Perhaps the optimization models and techniques we present here can benefit future work in this area. おそらく、ここで紹介する最適化モデルとテクニックは、この分野における今後の作業に役立つでしょう。 0.64
Since optimization is a core technique in ML regardless of whether fairness is taken into account, we focus here on research that uses optimization in the fairness-seeking component. 最適化は、フェアネスを考慮してもMLの中核となる手法であるため、フェアネス探索コンポーネントにおける最適化を利用する研究に焦点をあてる。 0.61
Pre-processing methods aim to prepare training data to prevent bias and disparity, and optimization models can be used to find the best data modifications. 前処理方法は、バイアスや格差を防ぐためにトレーニングデータを準備することを目指し、最適化モデルを使用して最適なデータ修正を見つけることができます。 0.64
For example, Zemel et al. 例えば、Zemel et al。 0.63
(2013) and Calmon et al. 2013年)とCalmon et al。 0.63
(2017) proposed optimization models to learn fair representations of the original training data. (2017) 元のトレーニングデータの公平な表現を学ぶために最適化モデルを提案した。 0.65
Their models used objective functions that capture the trade-off among preserving prediction accuracy, limiting data distortion and eliminating potential discrimination associated with protected attributes. それらのモデルでは、予測精度の保存、データの歪みの制限、保護属性に関連する潜在的な差別の排除といったトレードオフを捉える客観的関数を使用していた。 0.52
Post-processing seeks fairness by adjusting the predictions generated from the trained model. ポストプロセッシングは、トレーニングされたモデルから生成された予測を調整することで公平を追求する。 0.49
Similar to the pre-processing case, we can determine the optimal tuning rules with optimization models. 前処理の場合と同様に、最適化モデルで最適なチューニングルールを決定できます。 0.75
Examples of this strategy can be found in Hardt et al. この戦略の例は Hardt et al で見ることができる。 0.83
(2016) and Alabdulmohsin (2020). Alabdulmohsin (2016)とAlabdulmohsin (2020)。 0.78
Fairness through optimization can fit naturally into in-processing methods. 最適化による公平さは、自然にプロセス内メソッドに適合する。 0.53
For standard ML algorithms that essentially solve optimization problems, such as support vector machines, logistic regression, etc., it is convenient to obtain fair alternatives by adding fairness constraints or including fairness components in objective function. サポートベクターマシンやロジスティック回帰などの最適化問題を本質的に解決する標準的なMLアルゴリズムでは、公平性制約を追加したり、客観的な関数に公平性コンポーネントを含めることで、公正な代替品を得るのが便利である。 0.65
A wide variety of fairness definitions have been studied in different ML frameworks. さまざまなMLフレームワークで様々な公平性定義が研究されている。 0.75
A series of papers have formulated constraints to denote well-known parity based fairness notions including demographic parity, equality of opportunity and predictive rate parity (Zafar et al. 一連の論文は、人口統計学的パリティ、機会の平等、予測的パリティ(zafar et al)など、よく知られたパリティに基づく公平性概念を表すための制約を定式化した。 0.56
[2017, 2019], Olfat and Aswani [2018], Donini et al. 2017, 2019], Olfat and Aswani [2018], Donini et al。 0.68
[2018], Heidari et al. [2018], Heidari et al. 0.76
[2019]). A different direction explored in the literature is to define objective function to encode both fairness and the conventional training accuracy goals (Berk et al. [2019]). 文献で検討された異なる方向は、公平性と従来の訓練精度目標(berk et al)の両方を符号化する客観的関数を定義することである。
訳抜け防止モード: [2019]). 文献で探る別の方向は 公正性と従来の訓練精度目標(Berk et al)の両方を符号化する目的関数を定義する。
0.68
[2017], Goel et al. 2017年、Goelら。 0.49
[2018], Heidari et al. [2018], Heidari et al. 0.76
[2018]). These papers have demonstrated the empirical potentials [2018]). これらの論文は経験的ポテンシャルを実証した 0.59
5 5 0.85
英語(論文から抽出)日本語訳スコア
of their optimization models for fair classification and regression. 公平な分類と回帰のための最適化モデルです 0.83
Another related work is that of Aghaei et al. 関連作品としては、Aghaeiらがある。 0.65
(2019), which developed a mixed integer optimization based framework for learning fair decision trees, where a discrimination measure is used as penalty regularizer to eliminate disparity in the loss minimization model for training optimal decision trees. (2019)は、公正決定木を学習するための混合整数最適化フレームワークを開発し、最適決定木を訓練するための損失最小化モデルの不一致を解消するために、差別尺度をペナルティ正規化として用いる。 0.70
3 Inequality Measures One possible measure of fairness is the degree of equality in the distribution of utilities, for which several statistical metrics have been proposed (Cowell [2000], Jenkins and Van Kerm [2011]). 3 不平等対策 公平さの可能な尺度の1つはユーティリティの分布における平等度であり、いくつかの統計指標が提案されている(cowell [2000], jenkins and van kerm [2011])。 0.76
Equality is not the same concept as fairness, but it is related and can be a useful criterion in some cases (Frankfurt [2015], Parfit [1997], Scanlon [2003]). 平等は公平性と同じ概念ではありませんが、関連性があり、場合によっては有用な基準になる可能性があります(Frankfurt [2015]、Parfit [1997]、Scanlon [2003])。 0.74
We present optimization models for relative range, relative mean deviation, coefficient of variation, and the Gini coefficient. 本稿では,相対範囲,相対平均偏差,変動係数,ギニ係数の最適化モデルを提案する。 0.85
We begin with a brief review of linear-fractional programming, which is useful for converting these and some other models to easily solved LP problems. 本稿では,これらと他のモデルのLP問題への変換に有用である線形フラクタルプログラミングの簡単なレビューから始める。 0.76
3.1 Linear-fractional programming 3.1 線形フラクショナルプログラミング 0.71
Charnes and Cooper (1962) provides a mechanism for converting optimization problems whose objective function is a ratio of affine functions to linear programming (LP) problems, which are easy to solve. Charnes and Cooper (1962) は、アフィン関数と線形プログラミング(LP)問題の比率が目的関数である最適化問題を、容易に解けるように変換するメカニズムを提供する。 0.85
It applies to problems of the form フォームの問題に適用されます。 0.70
(4) where the denominator du + d0 is positive in the feasible set {u | Au ≤ b}. (4) 実現可能な集合 {u | Au ≤ b} において、分母 du + d0 が正となる。 0.84
We introduce a scalar variable t and use the change of variable u = u(cid:48)/t to write (4) as the LP problem スカラー変数 t を導入し、変数 u = u(cid:48)/t の変更を使って (4) を LP 問題として書く。 0.82
max d u (cid:110) c マックス d ウ (cid:110)c 0.72
(cid:124) (cid:124) (cid:124)(cid:124) 0.65
u + c0 u + d0 u + c0 u + d0 0.92
(cid:12)(cid:12)(cid :12) Au ≤ b (cid:111) + d0t = 1, t ≥ 0(cid:9) (cid:12)(cid:12)(cid :12) Au ≤ b (cid:111) + d0t = 1, t ≥ 0(cid:9) 0.81
u(cid:48) (cid:124) u(cid:48) (cid:124) 0.81
(cid:8)c (cid:124) (cid:8)c (cid:124) 0.81
u(cid:48) + c0t(cid:12)(cid:12) Au(cid:48) ≤ bt, d u(cid:48) + c0t(cid:12)(cid:12) Au(cid:48) ≤ bt, d 0.82
max u(cid:48),t max u(cid:48)t 0.92
(5) Then if ( ˆu(cid:48), ˆt) is an optimal solution of (5), u = ˆu(cid:48)/ˆt solves (4). (5) すると、 ( su(cid:48) が (5) の最適解であれば、 u = su(cid:48)/t は (4) を解く。 0.81
This technique can be extended to nonlinear and MILP models, as we will see below. この手法は、以下に示すように非線形およびMILPモデルに拡張することができる。 0.80
3.2 Measures of relative dispersion ¯u = (1/n)(cid:80) 3.2相対分散対策 (1/n)(cid:80) 0.85
As a simple example, linear-fractional programming can be used when the measure of inequality is the relative range of utilities. 単純な例として、線形フラクショナルプログラミングは、不等式測度がユーティリティの相対的範囲であるときに用いられる。 0.76
The SWF is W (u) = −(umax − umin)/¯u, where umax = maxi{ui}, umin = mini{ui}, and i ui. SWF は W (u) = −(umax − umin)/(u) であり、ここで umax = maxi{ui}, umin = mini{ui}, i ui となる。 0.90
We assume with little loss of generality that Ax + Bu ≤ b implies ¯u > 0. Ax + Bu ≤ b が「u > 0」を意味するという一般性の損失はほとんどないと仮定する。
訳抜け防止モード: 一般性がほとんど失われず ax + bu ≤ b は u > 0 を意味する。
0.75
The problem of maximizing W (u) subject to linear constraints Ax + Bu ≤ b can then be written as the LP problem 線形制約 Ax + Bu ≤ b を受ける W (u) を最大化する問題は、LP 問題として書くことができる。 0.83
(cid:110) min x(cid:48),u(cid:48), t u(cid:48) min,u(cid:48) (cid:110) min x(cid:48),u(cid:48), t u(cid:48) min,u(cid:48) 0.86
max (cid:12)(cid:12)(cid :12) マックス (cid:12)(cid:12)(cid :12) 0.72
max − u(cid:48) u(cid:48) max − u(cid:48) u(cid:48) 0.86
min min ≤ u(cid:48) u(cid:48) 分 min ≤ u(cid:48) u(cid:48) 0.71
i ≤ u(cid:48) i ≤ u(cid:48) 0.92
max, all i マックス、私はすべて 0.73
Ax(cid:48) + Bu(cid:48) ≤ bt, ¯u(cid:48) = 1, t ≥ 0 Ax(cid:48) + Bu(cid:48) ≤ bt, su(cid:48) = 1, t ≥ 0 0.93
min, u(cid:48) min, u(cid:48) 0.92
where u(cid:48) problem, then u = ˆu(cid:48)/ˆt is a distribution that minimizes the relative range. ここで u(cid:48) 問題は、u = su(cid:48) は相対範囲を最小化する分布である。 0.82
Another dispersion metric is the relative mean deviation, for which the SWF is W (u) = −(1/¯u)(cid:80) 別の分散メトリックは相対平均偏差であり、SWFはW(u) = −(1/ su)(cid:80)である。 0.85
max are regarded as variables along with x(cid:48), u(cid:48), and t. max は x(cid:48), u(cid:48), t とともに変数と見なされる。 0.86
If ( ˆx(cid:48), ˆu(cid:48), ˆu(cid:48) x(cid:48), su(cid:48), su(cid:48) の場合 0.87
max, ˆt) solves this i |ui−¯u|. max, (t) はこれを解く。 0.77
min, ˆu(cid:48) ミン・ウ(cid:48) 0.65
This, too, can be optimized by linear-fractional programming: これもまた線形フラクタルプログラミングによって最適化できる。 0.74
(cid:111) (cid:111) (cid:111) (cid:111) 0.78
where v1, . . . , vn are new variables. v1は? . . vn は新しい変数です。 0.76
min x(cid:48),u(cid:48), v,t 分 x(cid:48),u(cid:48), v,t 0.76
The coefficient of variation is the standard deviation with normalized mean. 変動係数は、正規化平均との標準偏差です。 0.75
The SWF is (cid:110)(cid:88) SWFとは? (cid:110)(cid:88) 0.74
vi i (cid:12)(cid:12)(cid :12) vi 私は (cid:12)(cid:12)(cid :12) 0.71
−vi ≤ u(cid:48) −vi ≤ u(cid:48) 0.82
i − ¯u(cid:48) ≤ vi, all i i − u(cid:48) ≤ vi, all i 0.95
Ax(cid:48) + Bu(cid:48) ≤ bt, ¯u(cid:48) = 1, t ≥ 0 Ax(cid:48) + Bu(cid:48) ≤ bt, su(cid:48) = 1, t ≥ 0 0.93
W (u) = − 1 ¯u w(u) = − 1 である。 0.81
(cid:104) 1 (cid:104)1 0.78
n (ui − ¯u)2(cid:105) 1 (cid:88) n (ui − su)2(cid:105)1(cid:8 8) 0.84
2 i 6 2 私は 6 0.74
英語(論文から抽出)日本語訳スコア
Although the numerator is nonlinear, we can use the same change of variable to formulate the optimization problem as ヌメレータは非線形であるが、同じ変数の変化を使って最適化問題を定式化することができる。 0.73
(cid:110)(cid:104) 1 (cid:110)(cid:104) 1 0.78
(cid:88) n (cid:88) n 0.82
i 2 (cid:12)(cid:12)(cid :12) Ax(cid:48) + bu(cid:48) ≤ bt )2(cid:105) 1 私は 2 (cid:12)(cid:12)(cid :12) ax(cid:48) + bu(cid:48) ≤ bt )2(cid:105) 1 0.68
¯u(cid:48) = 1, t ≥ 0 su(cid:48) = 1, t ≥ 0 0.94
(cid:111) i − ¯u(cid:48) (u(cid:48) (cid:111) i − su(cid:48) (u(cid:48) 0.82
min x(cid:48),u(cid:48), v,t 分 x(cid:48),u(cid:48), v,t 0.76
This is not an LP problem, but we can obtain the same optimal solution by solving it without the exponent 1 2 . これはLPの問題ではありませんが、指数1 2なしで解決することで、同じ最適なソリューションを得ることができます。 0.62
This yields a convex quadratic programming problem with linear constraints, for which there are efficient algorithms in state-of-the-art optimization packages. これは、最先端の最適化パッケージに効率的なアルゴリズムがある線形制約を持つ凸二次プログラミング問題をもたらす。 0.75
3.3 Gini coefficient perfect equality and therefore vanishes under perfect equality. 3.3 ジニ係数 完全平等は 完全な平等の下で消滅する 0.71
The SWF is W (u) = −(1/2¯un2)(cid:80) SWF は W (u) = −(1/2 シュウン2) (cid:80) 0.87
The Gini coefficient is by far the best known measure of inequality, as it is routinely used to measure income and wealth inequality. ジニ係数は、収入や富の格差を測定するために日常的に用いられるため、最もよく知られた不平等の尺度である。 0.64
It is proportional to the area between the Lorenz curve and a diagonal line representing i,j |ui−uj|. これはローレンツ曲線と i,j |ui−uj| を表す対角線の間の面積に比例する。 0.73
Again applying linear-fractional programming, the problem of minimizing the Gini coefficient subject to linear constraints is equivalent to the LP problem 線形フラクショナルプログラミングを再び適用し、線形制約を受けるギニ係数を最小化する問題は、LP問題と同等である。 0.74
(cid:110) 1 (cid:110)1 0.79
(cid:88) min (cid:88) 分 0.67
x(cid:48),u(cid:48), V,t x(cid:48),u(cid:48), V,t 0.97
2n2 i,j vij 2n2 i.j. vij 0.74
(cid:12)(cid:12)(cid :12) −vij ≤ u(cid:48) (cid:12)(cid:12)(cid :12) −vij ≤ u(cid:48) 0.75
j ≤ vij, all i, j Ax(cid:48) + Bu(cid:48) ≤ bt, ¯u(cid:48) = 1, t ≥ 0 j ≤ vij, all i, j Ax(cid:48) + Bu(cid:48) ≤ bt, su(cid:48) = 1, t ≥ 0 0.98
i − u(cid:48) i − u(cid:48) 0.92
(cid:111) where vij is a new variable for all i, j. (cid:111) ここでvijはすべてのi、jの新しい変数です。 0.75
4 Fairness for the Disadvantaged 4不利者に対する公平性 0.70
Rather than focus solely on inequality, fairness measures can enhance equality while giving preference to those who are less advantaged. 不平等にのみ焦点を合わせるのではなく、公平な措置は、有利でない人に優先しながら平等を高めることができます。 0.57
Far and away the most famous of such measures is the difference principle of John Rawls (1999), a maximin criterion that is based on careful philosophical argument and debated in a vast literature (Freeman [2003], Richardson and Weithman [1999]). そのような措置の最も有名なのはジョン・ロールス(1999年)の違い原理であり、これは慎重な哲学的議論に基づいており、広大な文学で議論された最高基準である(フリーマン [2003年]、リチャードソンとワイスマン [1999年])。 0.70
The difference principle can be plausibly extended to a lexicographic maximum principle. 差分原理は、辞書の最大原理にまで拡張することができる。 0.70
There are also the Hoover and McLoone indices, which are statistical measures that emphasize the lot of the less advantaged. HooverとMcLooneの指標もあるが、これはあまり有利でないものの多くを強調する統計測度である。 0.72
4.1 Rawlsian criteria 4.1 ロールシアン基準 0.51
The Rawlsian difference principle states that inequality should exist only to the extent that it is necessary to improve the lot of the worst-off. Rawlsian差分原理は、不等式は、最悪のオフの多くを改善する必要がある程度にのみ存在するべきであると述べています。 0.60
It is defended with a social contract argument that, in its simplest form, maintains that the structure of society must be negotiated in an “original position” in which people do not yet know their station in society. 最も単純な形では、社会の構造は、人々がまだ社会における地位を知らない「元の立場」で交渉されなければならない、という社会的契約の議論で守られている。 0.71
But one can rationally assent to the possibility of ending up on the bottom only if that person would have been even worse off in any other social structure, whence an imperative to maximize the lot of the worst-off. しかし、その人が他のどの社会構造でもさらに悪化していた場合、最悪の事態の多くを最大化するために必須である場合にのみ、底に終わる可能性に合理的に同意することができます。 0.71
The principle is intended to apply only to the design of social institutions, and only to the distribution of “primary goods,” which are goods that any rational person would want. この原則は、社会機関の設計にのみ適用されることを目的としており、合理的な人が望む商品である「一次財」の流通にのみ適用される。 0.76
Yet it can be adopted as a general criterion for distributing utility, namely a maximin criterion that maximizes the simple SWF W (u) = mini{ui}. しかし、ユーティリティを配布するための一般的な基準、すなわち単純な SWF W (u) = mini{ui} を最大化する最大値基準として採用することができる。 0.71
This is readily formulated as the LP problem これはLP問題として容易に定式化される 0.56
(cid:8)w(cid:12)(cid :12) w ≤ ui, all i; Ax + Bu ≤ b(cid:9) (cid:8)w(cid:12)(cid :12)w ≤ ui, all i; Ax + Bu ≤ b(cid:9) 0.90
max x,u,w The maximin criterion can be plausibly extended to lexicographic maximization (leximax) by first maximizing the smallest utility, then holding this utility fixed while maximizing the smallest among those that remain, and so forth. max x,u,w マキシミンの基準は、まず最小の効用を最大化し、次にこの効用を固定し、残る最小の効用を最大化することで、辞書の最大化(leximax)に拡張することができる。 0.76
This is known as pre-emptive goal programming in the optimization literature and is achieved by solving a sequence of optimization problems これは最適化文献におけるプリエンプティブゴールプログラミングとして知られており、一連の最適化問題を解くことによって達成される。
訳抜け防止モード: これは最適化文学におけるプリ・イプティブ・ゴールプログラミングとして知られている 達成されるのです 一連の最適化問題の解決
0.71
(cid:26) (cid:12)(cid:12)(cid :12)(cid:12) w ≤ ui, ui ≥ ˆuik−1, i ∈ Ik (cid:26) (cid:12)(cid:12)(cid :12)(cid:12) w ≤ ui, ui ≥ suik−1, i ∈ Ik) 0.79
Ax + Bu ≤ b Ax + Bu ≤ b 0.85
(cid:27) max x,u,w (cid:27) max x,u,w 0.82
w 7 (6) W 7 (6) 0.80
英語(論文から抽出)日本語訳スコア
for k = 1, . k = 1 の場合。 0.73
. . , n, where ( ˆx, ˆu) is an optimal solution of problem k, ˆui0 = −∞, and . . , n, where ( .x, .u) is a optimal solution of problem k, .ui0 = −∞, and 0.89
ˆuik = min i∈Ik {ˆui}, with Ik = {1, . i∈Ik です。 Ik = {1, .} である。 0.60
. . , n} \ {i1, . . . , n} \ {i1, . 0.88
. . , ik−1} Ogryczak and ´Sliwi´nski (2006) showed how to obtain a leximax solution with a single optimization model, but it is impractical for most purposes due to the very large coefficients required in the objective function. . . ik−1} Ogryczak と ́Sliwi ́nski (2006) は、単一の最適化モデルでレキシマックス解を得る方法を示したが、目的関数に要求される非常に大きな係数のため、ほとんどの目的において実用的ではない。 0.81
4.2 Hoover and McLoone Indices 4.2フーバーとマローン指数 0.62
The Hoover index is related to the Gini coefficient, as it is proportional to the maximum vertical distance between the Lorenz curve and a diagonal line representing perfect equality. フーバー指数は、ローレンツ曲線と完全等価を表す対角線の間の最大垂直距離に比例するため、ジーニ係数と関連している。
訳抜け防止モード: Hoover 指数は Gini 係数と関連しています。 ロレンツ曲線と完全な等価を表す対角線の間の最大垂直距離に比例します。
0.68
It is also proportional to the relative mean deviation. また、相対的な平均偏差にも比例する。 0.70
It can be interpreted as the fraction of total utility that would have to be transferred from the richer half of the population to the poorer half to achieve perfect equality. これは、完全な平等を達成するために人口のより豊かな半分から貧しい半分に転送されなければならない総実用性の割合として解釈することができます。 0.69
The SWF is W (u) = i |ui− ¯u|. SWF は W (u) = i |ui− .u| である。 0.82
The Hoover index can be minimized by solving the same LP problem as for the relative Hoover インデックスは、相対的に同じ LP 問題を解くことで最小化できます。 0.84
−(1/2n¯u)(cid:80) -(1/2n=80) 0.80
mean deviation. The McLoone index compares the total utility of individuals at or below the median utility to the utility they would enjoy if all were brought up to the median utility. 平均偏差 McLooneのインデックスは、中央のユーティリティーまたはそれより下の個人の全体のユーティリティーを、すべて中央のユーティリティーに育てられたときに楽しむユーティリティーと比較する。 0.50
The index is 1 if nobody’s utility is strictly below the median, and it approaches 0 if nearly everyone below the median has utility much smaller than the median (on the assumption that all utilities are positive.) インデックスは、誰も中央値以下でなければ1であり、中央値以下のほぼ全員が中央値よりはるかに小さいユーティリティを持っている場合(すべてのユーティリティが正であると仮定して)0に近づきます。 0.73
The McLoone index benefits the disadvantaged by rewarding equality in the lower half of the distribution, but it is unconcerned by the existence of very rich individuals in the upper half. mcloone indexは、分布の下半分の平等を報奨することで利益を得るが、上半分に非常に富裕な個人が存在することには無関心である。 0.73
The SWF is W (u) = SWFとは? W (u) = 0.80
1 |I(u)|umed 1 |I(u)|umed 0.87
(cid:88) ui i∈I(u) (cid:88) ui i∈I(u) 0.83
where umed is the median of utilities in u and I(u) is the set of indices of utilities at or below the median, so that I(u) = {i | ui ≤ umed}. ここで umed は u のユーティリティの中央値であり、I(u) は中央値以下におけるユーティリティのインデックスの集合であり、I(u) = {i | ui ≤ umed} である。 0.74
We can formulate the maximization problem as an MILP problem, but with a fractional objective function, by using standard “big-M ” modeling techniques from integer programming. 最大化問題をMILP問題として定式化することができますが、整数プログラミングから標準的な「big-M」モデリング技術を使用して、分数目的関数で。 0.68
The model uses 0–1 variables δi, where δi = 1 when i ∈ I(u). モデルは 0–1 変数 δi を使用し、i ∈ I(u) のとき δi = 1 である。 0.78
The constant M is a large number chosen so that ui < M for all i. 定数 M は、すべての i に対して ui < M となるような大きな数である。 0.77
The model is  モデルは  0.72
(cid:80) i yi(cid:80) (cid:80) i yi(cid:80) 0.81
i zi (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12) i zi (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12) 0.78
max x,u,m y,z,δ max x,u,m y,z,δ 0.85
m − M δi ≤ ui ≤ m + M (1 − δi), all i yi ≤ ui, yi ≤ M δi, δi ∈ {0, 1}, all i zi ≥ 0, zi ≥ m − M (1 − δi), all i m − M δi ≤ ui ≤ m + M (1 − δi), all i yi ≤ ui, yi ≤ M δi, δi ∈ {0, 1}, all i zi ≥ 0, zi ≥ m − M (1 − δi), all i 0.88
Ax + Bu ≤ b, (cid:80) Ax + Bu ≤ b, (cid:80) 0.98
i δi ≤ n/2 i δi ≤ n/2 0.74
    0.85
where the new variable m represents the median, variable yi is ui if δi = 1 and 0 otherwise, and variable zi is m if δi = 1 and 0 otherwise in the optimal solution. 新しい変数 m が中央値を表す場合、変数 yi は δi = 1 と 0 でなければ ui であり、変数 zi は δi = 1 と 0 が最適解の場合には m である。 0.87
The fractional objective function can be removed, resulting in an MILP problem, by using the same change of variable as in linear-fractional programming: 分数的目的関数は取り除くことができ、線形フラクショナルプログラミングと同じ変数の変更を使用することで、MILP問題を引き起こします。 0.70
  0.85
(cid:88) i (cid:88) 私は 0.66
y(cid:48) i y(cid:48) 私は 0.69
(cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)cid:12) 0.67
max x(cid:48),u(cid:48), m(cid:48) y(cid:48),z(cid:48), t,δ max x(cid:48),u(cid:48), m(cid:48) y(cid:48),z(cid:48), t,δ 0.97
i ≥ m(cid:48) − M δi, all i u(cid:48) i ≤ m(cid:48) + M (1 − δi), all i u(cid:48) i ≤ u(cid:48) i ≤ M δi, δi ∈ {0, 1}, all i y(cid:48) i, y(cid:48) i ≥ m(cid:48) − M (1 − δi), all i i ≥ 0, z(cid:48) z(cid:48) (cid:80) i = 1, t ≥ 0 i z(cid:48) i δi ≤ n/2 i ≥ m(cid:48) − M δi, all i u(cid:48) i ≤ m(cid:48) + M (1 − δi), all i u(cid:48) i ≤ u(cid:48) i ≤ M δi, δi ∈ {0, 1}, all i y(cid:48) i, y(cid:48) i ≥ m(cid:48) − M (1 − δi), all i ≥ 0, z(cid:48) z(cid:48) (cid:80) i = 1, t ≥ 0 z(cid:48) i ≤ n/2 0.96
Ax(cid:48) + Bu(cid:48) ≤ bt, (cid:80) Ax(cid:48) + Bu(cid:48) ≤ bt, (cid:80) 0.86
5 Combining Fairness and Efficiency 5 公正性と効率性の組み合わせ 0.65
is the utilitarian SWF, W (u) =(cid:80)n W (u) =(cid:80)n は実用的 SWF である。 0.83
In many practical applications involving fairness, efficiency is desired as well. 公平性を含む多くの実践的応用において、効率性も望まれる。 0.60
A standard efficiency measure i=1 ui, which is indifferent to the inequalities among individual utilities. 個々のユーティリティ間の不平等に無関心な標準効率測定i=1 ui。 0.73
8 8 0.85
英語(論文から抽出)日本語訳スコア
One obvious strategy for combining equity and efficiency is to define a SWF that is a convex combination of utility and a fairness criterion, such as one of those described in previous sections. エクイティと効率性を組み合わせるための明らかな戦略の1つは、前のセクションで説明したようなユーティリティと公平性基準の凸の組み合わせであるSWFを定義することです。 0.77
Although this strategy is convenient, it poses the difficult challenge of selecting and interpreting the weight parameters of the convex combination. この戦略は便利ですが、凸の組み合わせの重量パラメータを選択して解釈するのは難しい課題です。 0.63
A popular alternative is alpha fairness, of which proportional fairness (the Nash bargaining solution) is a special case. 一般的な選択肢はアルファ公平性であり、比例公平性(ナッシュ交渉ソリューション)は特別なケースです。 0.65
The Kalai-Smorodinsky bargaining solution is another option. Kalai-Smorodinsky交渉ソリューションは別のオプションです。 0.73
There are also schemes that combine Rawlsian and utilitarian criteria based on justice principles proposed in Williams and Cookson (2000). また、williams and cookson (2000) で提唱された正義の原則に基づいて、rawlsian と utilitarian criteria を組み合わせる計画もある。 0.64
5.1 Alpha fairness and proportional fairness 5.1アルファフェアネスと比例フェアネス 0.72
Alpha fairness regulates the relative importance of equity and efficiency with a parameter α in the SWF アルファフェアネスはSWFにおけるパラメータαによる株式と効率の相対的重要性を調節する 0.86
Wα(u) = log(ui) Wα(u) = log(ui) 0.92
for α = 1 u1−α α = 1 の場合 u1−α 0.69
i for α ≥ 0, α (cid:54)= 1 私は α 0, α (cid:54)= 1 の場合 0.71
(cid:88) i (cid:88) 私は 0.66
 1 1 − α  1 1 − α 0.85
(cid:88) i (cid:88) 私は 0.66
The SWF is purely utilitarian when α = 0 and becomes purely maximin as α → ∞. SWF は α = 0 のとき純粋に実用的であり、α → ∞ として純粋に極大となる。 0.74
If one person’s utility ui is less than another’s utility uj, then uj must be reduced by (uj/ui)α units to compensate for a unit increase in ui while maintaining constant social welfare. ある人のユーティリティuiが他のユーティリティujよりも小さい場合は、一定の社会福祉を維持しながらuiの単位増加を補うために(uj/ui)αユニットでujを削減しなければならない。 0.86
Thus larger values of α imply greater sacrifice from the person j who is better off and can therefore be interpreted as giving more emphasis to fairness. したがって、α のより大きい値は、より善意の人 j からより大きな犠牲を被ることを意味するので、公平さにより重きを置くと解釈できる。 0.66
Lan et al. (2010) give an axiomatic justification of alpha fairness in the context of network resource allocation. lanなど。 (2010) ネットワークリソース割り当ての文脈におけるアルファ公平性の公理的正当化を与える。 0.57
The problem of maximizing Wα(u) can be solved directly in the form Wα(u) を最大化する問題は、その形で直接解決できる 0.84
(cid:8)Wα(u)(cid:12)(cid:12) Ax + Bu ≤ b(cid:9) (cid:8)Wα(u)(cid:12)(cid:12)A x + Bu ≤ b(cid:9) 0.83
max x,u without reformulation. max x,u 改革なしで 0.75
The objective function is nonlinear, but since it is concave for all α ≥ 0, any local optimum is a global optimum. 目的関数は非線形であるが、すべての α × 0 に対して凹凸であるため、任意の局所最適は世界最適である。 0.75
The problem can therefore be solved to optimality by such efficient algorithms as the reduced gradient method, which is a straightforward generalization of the simplex method for LP, particularly since Wα(u) has a simple closed-form gradient. したがって、この問題は、特にwα(u) が単純な閉形式勾配を持つため、lp の simplex 法の単純一般化である還元勾配法のような効率的なアルゴリズムによって最適に解くことができる。 0.81
Maximizing alpha fairness can therefore be regarded as tractable for reasonably large instances. したがって、アルファフェアネスの最大化は、合理的に大きな場合において、トラクタブルとみなすことができる。 0.42
A well-known special case of α-fairness is proportional fairness, which corresponds to setting α = 1. αフェアネスのよく知られた特別な例は、α = 1の設定に対応する比例公平性である。 0.63
Maximizing proportional fairness is equivalent to solving the Nash bargaining problem (Nash [1950]). 比例フェアネスの最大化は、ナッシュ交渉問題を解くことと等価である(Nash [1950])。 0.65
Nash gave an axiomatic argument for the model, and it has also been justified as the result of certain rational bargaining procedures (Harsanyi [1977], Rubinstein [1982], Binmore et al. ナッシュはこのモデルについて公理的な議論を行い、ある合理的な交渉手順(harsanyi [1977], rubinstein [1982], binmore et al)の結果も正当化されている。 0.73
[1986]). Proportional fairness is widely used in engineering to maximize throughput while maintaining some degree of fairness, as for example in telecommunication networks and traffic signal timing. [1986]). 比例公平性は、通信ネットワークや交通信号タイミングなど、ある程度の公平性を維持しながらスループットを最大化するために工学において広く使われている。 0.52
5.2 Kalai-Smorodinsky bargaining solution 5.2 Kalai-Smorodinsky バーゲイン溶液 0.53
The Kalai-Smorodinsky bargaining solution, proposed as an alternative to the Nash bargaining solution, minimizes each person’s relative concession (Kalai and Smorodinsky [1975]). ナッシュ交渉ソリューションの代替として提案されたKalai-Smorodinsky交渉ソリューションは、各人の相対的な譲歩を最小限に抑えます(KalaiとSmorodinsky [1975])。 0.85
That is, it provides the largest possible utility relative to the maximum one could obtain if other players are disregarded, subject to the condition that all persons obtain the same fraction β of their maximum. すなわち、他のプレイヤーが無視された場合に得られる最大値に対する最大の有用性を提供し、すべての人がその最大値の同じ分数βを得るという条件に従います。 0.82
It has been defended by Thompson (1994) and is consistent with the “contractarian” ethical philosophy of Gautier (1983). それはトンプソン(1994)によって守られ、ガウティエ(1983)の「契約主義」倫理哲学と一致しています。 0.72
The SWF is W (u) = SWFとは? W (u) = 0.80
(cid:12)(cid:12) Ax + Bu ≤ b} for each i. (cid:12)(cid:12) Ax + Bu ≤ b} である。 0.88
The optimization problem is a straightforward LP: 最適化問題は単純LPである。 0.70
otherwise 0, そうでなければ 0, 0.59
i ui, (cid:80) i ui です。 (cid:80) 0.73
if u = βumax u = βumax ならば 0.78
 (cid:8)β(cid:12)(cid:12) u = βumax, Ax + Bu ≤ b, β ≤ 1(cid:9) (cid:8)β(cid:12)(cid:12) u = βumax, Ax + Bu ≤ b, β ≤ 1(cid:9) 0.90
for some β with 0 ≤ β ≤ 1 0 ≤ β ≤ 1 のある β に対して 0.91
max β,x,u where umax Max β,x,u umaxは 0.71
i = maxx,u{ui i = maxx,u{ui です。 0.87
9 9 0.85
英語(論文から抽出)日本語訳スコア
Figure 1: Contours for the equity-based Williams-Cookson SWF. 図1: 株式ベースのWilliams-Cookson SWFのコントラスト。 0.75
5.3 Combining maximin and utilitarian criteria 5.3 マキシミンと実用基準の組み合わせ 0.57
We now show how to formulate optimization models that directly combine Rawlsian and utilitarian criteria. 現在、Rawlsianと実用的基準を直接組み合わせた最適化モデルを定式化する方法を示している。 0.62
These formulations are useful when either criterion in isolation would be too extreme for policy making. これらの処方は、分離の基準が政策立案に極端すぎる場合に有用である。 0.69
Williams and Cookson (2000) suggest two ideas for combining maximin and utilitarian objectives in the case of two persons, and these can be generalized to n persons and formulated as MILP models. Williams and Cookson (2000) は、2人の場合において最大目的と実用目的を組み合わせた2つのアイデアを提案し、これらを n 人に一般化し、MILP モデルとして定式化することができる。 0.69
They correspond to opposite approaches to combining equity and efficiency: an equity-based approach that begins by maximizing equity but switches to a utilitarian criterion to avoid extreme solutions, and a utility-based approach that does the opposite. エクイティと効率性を組み合わせるという反対のアプローチに対応します。エクイティを最大化することから始まるエクイティベースのアプローチですが、極端なソリューションを避けるために実用主義的な基準に切り替えます。 0.64
We also show how to generalize the equity-based approach so as to combine leximax and and utilitarian objectives in a sequence of MILP models (Chen and Hooker [2020b]). また,MILPモデルの系列(Chen and Hooker [2020b])において,レキシマックスと実用目的を組み合わせ,エクイティベースアプローチを一般化する方法を示す。 0.70
5.3.1 Equity-based Williams-Cookson SWF. 5.3.1 EquityベースのWilliams-Cookson SWF。 0.45
The 2-person equity-based model of Williams and Cookson (2000) pursues fairness until the efficiency cost becomes too high, whereupon it switches to a utilitarian objective. ウィリアムズとクックソンの2人の株式ベースのモデル(2000年)は、効率コストが高すぎるまで公正性を追求し、実用目的に切り替える。 0.65
It uses a maximin criterion when the two utilities are sufficiently close to each other, specifically |u1 − u2| < ∆, and otherwise it uses a utilitarian criterion. 2つのユーティリティが互いに十分近い場合、特に |u1 − u2| < ] は極大基準(maximin criterion)を使用し、それ以外は実用基準(utilitarian criterion)を用いる。 0.65
This is illustrated in Fig. これは図に示します。 0.79
1, where the feasible set is the area under the curve. 1 のとき、実現可能な集合は曲線の下の領域である。 0.69
The maximin solution (open circle) requires a substantial sacrifice from person 2. 最大解(開円)は人2からのかなりの犠牲を必要とする。 0.76
As a result, the utilitarian solution (black dot) earns slightly more social welfare and is the preferred choice. その結果、実用的ソリューション(ブラックドット)は少し社会福祉を得ており、好まれる選択である。 0.78
The SWF can be written (cid:26) u1 + u2, SWFは書けます。 (cid:26) u1 + u2。 0.72
if |u1 − u2| ≥ ∆ もし |u1 − u2| ≥ ? 0.63
W1(u1, u2) = W1(u1, u2) = 0.86
2 min{u1, u2} + ∆, otherwise 2 min{u1, u2} + \, でなければ 0.87
The maximin criterion is modified from the standard formula min{u1, u2} to ensure continuity of the SWF as one shifts between the utilitarian and the maximin objective. 最大化基準は標準式 min{u1, u2} から修正され、実用性と最大化目標の間の一シフトとして SWF の連続性が保証される。 0.76
Hooker and Williams (2012) generalize W1 to n persons. Hooker and Williams (2012) は W1 を n 人に一般化する。 0.71
The utility ui of person i belongs to the fair region if ui − umin ≤ ∆ and otherwise to the utilitarian region, where umin = mini{ui}. パーソン i の効用 ui がフェア領域に属するとすると、ui − umin ≤ {\displaystyle ui} はフェア領域に属し、それ以外はユーティリティ領域に属し、umin = mini{ui} となる。
訳抜け防止モード: パーソン i の効用 ui がフェア領域に属する場合、ui − umin ≤ ... でなければ有効領域に属する。 ここでumin = mini{ui } である。
0.71
A person whose utility is in the fair region is considered sufficiently disadvantaged to deserve priority. 公正な地域にある実用性を有する者は、優先権に値するほど不利とみなされる。 0.60
The generalized SWF W1(u) counts all utilities in the fair region as equal to umin, so that they are treated in solidarity with the worst-off, and all other utilities as themselves. 一般化されたSWF W1(u) は、フェア領域のすべてのユーティリティをumin に等しいものとしてカウントし、それらが最悪のオフと連帯して扱われ、他のユーティリティもそれ自身として扱われる。 0.60
Similar to the 2-person case, copies of ∆ are added to the 2人称の場合と同様に、イのコピーが加えられる。 0.68
10 .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... ....ueedu1u2∆∆1 10 .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... ....ueedu1u2∆∆1 0.43
英語(論文から抽出)日本語訳スコア
maximin criterion to ensure continuity of W1. W1の連続性を保障するmaximinの基準。 0.54
W1(u) = (n − 1)∆ + W1(u) = (n − 1) + である。 0.87
n(cid:88) i=1 n(cid:88) i=1 0.71
max{ui − ∆, umin} max{ui − s, umin} 0.83
(7) The parameter ∆ regulates the equity/efficiency trade-off, with ∆ = 0 corresponding to a purely utilitarian objective and ∆ = ∞ to a purely maximin objective. (7) パラメータ ^ は株式/効率のトレードオフを規制し、 ^ = 0 は純粋に実用目的、 ^ = ∞ は純粋に最大目的に対応する。 0.73
In addition, Hooker and Williams (2012) extended W1(u) to represent the social welfare associated with the utility distribution to groups of recipients. さらに hooker and williams (2012) は w1(u) を拡張して、受取人の集団にユーティリティ分布に関連する社会福祉を表現した。 0.75
Suppose there are n groups of possibly different sizes, and let si and ui respectively denote the number of individuals in group i and the utility of each individual in the group. おそらく異なるサイズの n 個の群が存在すると仮定し、si と ui はそれぞれグループ i の個体数とグループ内の個々の実用性を表す。 0.76
The function W g 1 (u) considers a group i to be in the fair region when its per capita ui is within ∆ of umin, and it prioritizes only the groups in the fair region. 函数 W g 1 (u) は、ある群 i がフェア領域にあるとみなす: 一人当たりの ui がウミンの y 内にあるとき、それはフェア領域内の群のみを優先順位付けする。 0.66
W g 1 (u) = W g 1 (u) = 0.85
si − 1 ∆ + si − 1 ∆ + 0.85
si max{ui − ∆, umin} si max{ui − s, umin} 0.83
(8) (cid:16) n(cid:88) (8) (cid:16) n(cid:88) 0.82
(cid:17) n(cid:88) (cid:17) n(cid:88) 0.81
i=1 i=1 Hooker and Williams (2012) provided tractable MILP models to maximize W1(u) and W g auxiliary constraints ui − uj ≤ M required for MILP representability. i=1 i=1 Hooker and Williams (2012) は、MILP 表現性に必要な W1(u) と W g 補助制約 ui − uj ≤ M を最大化するトラクタブル MILP モデルを提供した。 0.63
The model for maximizing W1 is W1 を最大化するモデルは 0.83
1 (u) subject to 1 (u) を対象とする 0.83
z (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12) イーズ (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)cid:12) 0.66
z ≤ (n − 1)∆ +(cid:80) z ≤ (n − 1) = + (cid:80) 0.95
i vi ui − ∆ ≤ vi ≤ ui − ∆δi, all i w ≤ vi ≤ w + (M − ∆)δi, all i i vi ui − s ≤ vi ≤ ui − s δi, all i w ≤ vi ≤ w + (M − s)δi, all i 0.88
ui − ui ≤ M, all i, j ui − ui ≤ M, all i, j 0.85
Ax + Bu ≤ b Ax + Bu ≤ b 0.85
ui ≥ 0, δi ∈ {0, 1}, all i ui ≥ 0, δi ∈ {0, 1}, all i 0.85
  0.85
max x,u,δ,v,w,z マックス x,u,δ,v,w,z 0.77
(9) and the model for W g healthcare resource allocation instance of realistic size. (9) Wgヘルスケアリソース割り当てインスタンスのモデルも,現実的なサイズです。 0.74
1 is similar. The practicality of these models was verified with experiments on a 1は似ている。 これらのモデルの実用性は実験によって検証された。 0.66
5.3.2 Utility-based Williams-Cookson SWF. 5.3.2 ユーティリティベースのWilliams-Cookson SWF。 0.44
Alternatively, when efficiency is the initial objective, fairness is not considered until inequality in the utility distribution becomes intolerable. あるいは、効率が最初の目的である場合、ユーティリティ分布の不等式が耐えられなくなるまで公平性は考慮されない。 0.62
For the 2-person case, Williams and Cookson (2000) define the SWF to be utilitarian when |u1 − u2| < ∆, which corresponds to the case where enforcing fairness is unnecessary. 2人称の場合、Williams and Cookson (2000) は |u1 − u2| < s が実用的であると定義し、これは公平性が不要である場合に対応する。 0.70
The SWF is maximin (again with a modification for continuity) otherwise. SWFはマキシミン(継続性の修正も含む)である。 0.69
In Fig. 2, the utilitarian solution (open dot) is unfair to person 1, and the welfare-maximizing solution is more egalitarian (black dot). 図1。 2、実用主義的な解決(開いた点)は人1に不公平であり、福祉最大化の解決はよりegalitarian(黒い点)です。 0.67
The SWF is (cid:26) 2 min{u1, u2} + ∆, SWFとは? (cid:26) 2 min{u1, u2} + 。 0.83
W 1(u1, u2) = W 1(u1, u2) = 0.96
u1 + u2, if |u1 − u2| ≥ ∆ otherwise u1 + u2, u1 − u2| ≥ でなければ 0.79
We generalize this view to define SWFs to capture the combined objective for n persons or groups with techniques similar to those used by Hooker and Williams. このビューを一般化して SWF を定義し、Hooker や Williams と同様の手法で n の人や集団の複合目的を捕捉する。 0.71
The main difference is that we now say a utility ui belongs to the fair region if ui − umin ≥ ∆, otherwise it is in the utilitarian region. 主な違いは、実用新案 ui が公正な地域に属していると言うことです。
訳抜け防止モード: 主な違いは、実用新案 ui が公正な地域に属していると言うことです。 さもなければそれは実用主義の地域にあります。
0.63
In the SWFs W 1 and g W 1, we still count the fair region utilities as equivalent to umin, the utilitarian region utilities as their exact values, and add the needed multiples of ∆ to obtain continuous SWFs. SWFs W 1 および g W 1 では、フェアリージョンユーティリティーを umin と同等に数え、ユーティリティー領域ユーティリティーをその正確な値として数え、連続 SWF を得るのに必要な s の倍数を追加します。 0.69
W 1(u) = (n − 1)∆ + W 1(u) = (n − 1) + である。 0.88
min{ui − ∆, umin} min{ui − s, umin} 0.82
W g 1(u) = W g 1(u) = 0.85
si − 1 ∆ + si − 1 ∆ + 0.85
si min{ui − ∆, umin} si min{ui − \, umin である。 0.84
n(cid:88) n(cid:88) n(cid:88) n(cid:88) 0.81
i=1 (cid:16) n(cid:88) i=1 (cid:16) n(cid:88) 0.69
(cid:17) i=1 (cid:17) i=1 0.69
i=1 11 i=1 11 0.72
英語(論文から抽出)日本語訳スコア
Figure 2: Contours for the utility-based Williams-Cookson SWF. 図2: ユーティリティベースのWilliams-Cookson SWFのコントラスト。 0.70
g Because W 1(u) and W 2(u) are continuous and concave functions, the corresponding maximization problems have simple LP formulations that are convenient to solve. g W 1(u) と W 2(u) は連続および凹凸関数であるため、対応する最大化問題には解くのに便利な単純なLP製剤があります。 0.80
We first derive the LP formulation for maximizing W 1(u). まず,W1(u)を最大化するLP製剤を導出する。 0.67
The maximization problem is It is equivalent to the following LP because the constraints on vi hold if and only if vi ≤ ui − ∆ and vi ≤ w, where w = umin. 最大化問題です。 vi の制約が w = umin である vi ≤ ui − s と vi ≤ w のときのみ保持されるため、次の LP と等価である。 0.75
We require w ≤ ui for all i to ensure that w is set to umin in the optimal solution. すべてのi に対して w ≤ ui が必要であり、w が最適な解で umin に設定されることを保証する。 0.63
max x,u,v (n − 1)∆ + z (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12) max x,u,v 12)(cid:12)(cid:12)( cid:12)(cid:12)(cid: 12)(cid:12)(cid:12)( cid:12)(cid:12)(cid: 12)(cid:12)(cid:12)( cid:12)(cid:12)cid:1 2) 0.71
z x,u,v,w,z イーズ x,u,v,w,z 0.75
max g 1 is similar. マックス g1は似ています 0.66
(cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12) 0.66
max x,u,v,w,z マックス x,u,v,w,z 0.77
 n(cid:88)  n(cid:88) 0.85
i=1 vi all i i=1 vi すべて私は 0.68
Ax + Bu ≤ b Ax + Bu ≤ b 0.85
(cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12) vi = min{ui − ∆, umin}, z ≤ (n − 1)∆ +(cid:80)n  (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12) vi = min{ui − s, umin}, z ≤ (n − 1) ^ +(cid:80)n . 0.78
vi ≤ w ≤ ui, all i vi ≤ ui − ∆, all i w ≥ 0, vi ≥ 0, all i vi ≤ w ≤ ui, all i vi ≤ ui − s, all i w ≥ 0, vi ≥ 0, all i 0.84
Ax + Bu ≤ b Ax + Bu ≤ b 0.85
i=1 vi z ≤ ((cid:80)n i=1 vi z ≤ ((cid:80)n 0.82
i=1 si − 1)∆ +(cid:80)n i=1 si − 1) +(cid:80)n 0.92
vi ≤ w ≤ ui, all i vi ≤ ui − ∆, all i w ≥ 0, vi ≥ 0, all i vi ≤ w ≤ ui, all i vi ≤ ui − s, all i w ≥ 0, vi ≥ 0, all i 0.84
Ax + Bu ≤ b Ax + Bu ≤ b 0.85
i=1 sivi  i=1 sivi  0.78
The formulation for maximizing W Wを最大化するための定式化 0.59
5.4 Combining leximax and utilitarian criteria 5.4 レキシマックスと実用基準の組み合わせ 0.64
A leximax criterion offers broader sensitivity to equity than a maximin criterion, which is concerned only with the worst-off. レキシマックス基準(leximax criterion)は、極大基準(maximin criterion)よりも、株式に対する広範な感度を提供する。 0.68
Chen and Hooker (2020b,2020a) offer a series of SWFs that can be maximized sequentially to Chen and Hooker (2020b, 2020a) は連続的に最大化できる一連の SWF を提供する。 0.74
12 .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... ...ueedu1u2∆∆1 12 .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... ...ueedu1u2∆∆1 0.43
英語(論文から抽出)日本語訳スコア
combine leximax and utilitarian criteria in a principled way: i=1 (n − i + 1)u(cid:104)i(cid:10 5) i=1 (n − i + 1)u(cid:104)i(cid:10 5) 0.49
Wk(u) =(cid:80)k−1 +(n − k + 1) min(cid:8)u(cid:104) 1(cid:105) + ∆, u(cid:104)k(cid:105) (cid:9) +(cid:80)n Wk(u) =(cid:80)k−1 +(n − k + 1) min(cid:8)u(cid:104) 1(cid:105) + s, u(cid:104)k(cid:105) (cid:9) +(cid:80)n 0.86
(cid:0)u(cid:104)i(c id:105) − u(cid:104)1(cid:105) − ∆(cid:1)+ (cid:0)u(cid:104)i(c id:105) − u(cid:104)1(cid:105) − s(cid:1)+ 0.81
i=k , k = 2, . i=k , k = 2 である。 0.72
. . , n where γ+ = max{0, γ}, and where u(cid:104)1(cid:105) , . . . , n γ+ = max{0, γ} であり、u(cid:104)1(cid:105) である。 0.84
. . , u(cid:104)n(cid:105) are u1, . . . , u(cid:104)n(cid:105) は u1 である。 0.81
. . , un in nondecreasing order. . . 非増加順序で、un。 0.76
The initial function W1 is given by (7). 初期関数W1は(7)によって与えられる。 0.75
The parameter ∆ again regulates the efficiency/equity trade-off by giving preference to individuals whose utility is within ∆ of the lowest, with greater weight to the more disadvantaged. パラメータ > は、より不利な値よりも大きな重みを伴い、最も有効性が低い値である個人を優先することにより、効率/等価トレードオフを再び規制する。 0.54
model (6), the MILP formulation for maximizing Wk, k ≥ 2, is モデル (6) は wk, k ≥ 2 を最大化するための milp の定式化である。 0.69
The MILP model for maximizing W1 is (9). w1 を最大化する milp モデルは (9) である。 0.71
Using notation similar to that for the goal programming ゴールプログラミングにそれに似た表記法を使う 0.83
  0.59
(cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) 0.64
max x,u,δ, v,w,τ,z max x,u,δ,\v,w,τ,z 0.78
z z ≤ (n − k + 1)τ +(cid:80) z z ≤ (n − k + 1)τ +(cid:80) 0.91
i∈Ik 0 ≤ vi ≤ M δi, i ∈ Ik i∈Ik 0 ≤ vi ≤ M δi, i ∈ Ik 0.94
vi vi ≤ ui − ˆui1 − ∆ + M (1 − δi), i ∈ Ik vi vi ≤ ui − >ui1 − > + M (1 − δi), i ∈ Ik 0.87
τ ≤ ˆui1 + ∆, τ ≤ w, w ≥ ˆui1 w ≤ ui ≤ w + M (1 − i), i ∈ Ik (cid:80) i ∈ ik (cid:80) {\displaystyle i\,} τ ≤ \ui1 + τ, τ ≤ w, w ≥ \ui1 w ≤ ui ≤ w + m (1 − si), i ∈ ik (cid:80) である。
訳抜け防止モード: τ ≤ w, τ ≤ w, w ≥ τui1 w ≤ ui ≤ w + m ( 1 − s i ) である。 i ∈ ik (cid:80 )
0.92
ui − ˆui1 ≤ M, i ∈ Ik i = 1; δi, i ∈ {0, 1}, i ∈ Ik i ∈ Ik = 1; δi, δi ∈ {0, 1}, i ∈ Ik
訳抜け防止モード: ui − sui1 ≤ M, i ∈ Ik = 1 ; δi , δi ∈ {0 , 1 } , i ∈ Ik
0.89
Ax + Bu ≤ b Ax + Bu ≤ b 0.85
i∈Ik  i∈Ik  0.59
The model is demonstrated in Chen and Hooker (2020b) and found to solve rapidly on healthcare resource and earthquake shelter location problems. このモデルは Chen and Hooker (2020b) で実証され、医療資源と地震避難所の位置問題に関して急速に解決されている。 0.65
6 Fairness in Support Vector Machines 6 サポートベクターマシンにおける公平性 0.73
Optimization-based fairness is readily implemented in support vector machines (SVMs), because the problem of finding a separating hyperplane is already a constrained optimization problem. 最適化に基づくフェアネスはサポートベクトルマシン(SVM)で容易に実装できるが、これは超平面を分離する問題はすでに制約のある最適化問題であるからである。 0.66
In principle, one need only replace the usual objective of maximizing the margin with that of maximizing a social welfare function. 原則として、マージンを最大化する通常の目的を社会福祉機能を最大化する目的に置き換えるだけである。 0.72
However, fairness metrics can be incorporated into the SVM problem only if 0–1 variables are introduced to indicate how individuals are classified. しかし、公平度指標は、個人がどのように分類されるかを示すために0-1変数が導入された場合にのみ、SVM問題に組み込むことができる。 0.52
Since the optimization problem is solved over all observations in the training set, this can result in a very large number of discrete variables and associated constraints. 最適化問題はトレーニングセット内のすべての観測で解かれるため、これは非常に多くの離散変数と関連する制約をもたらす可能性がある。 0.78
If one relies on an off-the-shelf MILP solver, this could limit the size of the training set to a few hundred observations. 既製のMILPソルバを頼りにすれば、これはトレーニングセットのサイズを数百の観測に制限する可能性がある。 0.63
Scaling up therefore remains a research issue, but possible strategies suggest themselves. したがって、スケールアップは研究の問題ですが、可能な戦略は自分自身を提案します。 0.50
An obvious one is to solve the problem using a subset of representative observations, perhaps selected with clustering techniques. 明らかな解決策は、おそらくクラスタリング技術で選択される代表的観測のサブセットを使用して問題を解決することである。
訳抜け防止モード: 明らかなのは 多分クラスタリング技術で選択された代表観測のサブセットを用いて問題を解決する。
0.79
Another is to draw on specialized techniques in the MILP literature for solving problems with many 0–1 variables. もう1つは、多くの0-1変数の問題を解くためのMILP文献の専門技術を活用することである。 0.56
Branch-and-price methods, for example, routinely solve practical problems with millions of 0–1 variables by using column generation techniques to introduce variables only as they are needed to improve the solution. 例えば、ブランチ・アンド・プライスメソッドは、ソリューションの改善に必要な変数のみを導入するためにカラム生成技術を使用して、数百万の0-1変数の実用的な問題を日常的に解決する。 0.61
A related technique, “shrinking,” is already used in sequential minimal optimization algorithms for SVMs. 関連する手法である “shrinking” は、すでにsvmの逐次最小最適化アルゴリズムで使用されている。 0.72
We begin with showing how the classical SVM problem can be reformulated into an LP problem by normalizing in a slightly different way. まず,従来のSVM問題をわずかに異なる方法で正規化することにより,LP問題に再構成する方法を示す。 0.70
This clears the way for fairness problems containing 0–1 variables to be formulated as MILP problems. これにより、0-1変数を含むフェアネス問題はミルプ問題として定式化される。 0.59
We then show how statistical fairness metrics can be incorporated into the SVM problem. 次に,SVM問題に統計的公正度指標を組み込む方法を示す。 0.74
This is followed by a more general MILP model that allows the use of any SWF that is linearized in previous sections of this paper. これは、この論文の以前のセクションで線形化された任意のSWFの使用を可能にするより一般的なMILPモデルが続きます。 0.69
6.1 Linearizing the maximum margin problem 6.1 最大マージン問題の線形化 0.73
Adopting notation from the SVM literature, let each observation i in the training set consists of a real-valued vector xi of features and an indication yi as to whether the individual should receive a true classification SVM文献からの表記を採用し、トレーニングセット内の各観測 i は、特徴の実値ベクトル xi と、個人が真の分類を受けるべきかどうかの指標 yi からなる。 0.84
13 13 0.85
英語(論文から抽出)日本語訳スコア
(yi = 1 for true, yi = −1 for false). (yi = 1 for true, yi = −1 for false) 0.83
A separating hyperplane {x | θ xi + b ≥ 0 for all and only true observations i. すべての真の観測 i に対して分離超平面 {x | θ xi + b ≥ 0 である。 0.84
Note that xi and yi are problem data, not variables. xi と yi は変数ではなく問題データである。 0.72
The SVM problem is to find a separating hyperplane that maximizes the margin σ, which is the minimum distance from the hyperplane to point xi over all i. SVM問題は、超平面からすべての i 上の点 xi までの最小距離であるマージン σ を最大化する分離超平面を見つけることである。 0.82
The standard SVM model interprets distance as the L2-norm: 標準SVMモデルは距離をL2ノルムと解釈する。 0.72
x + b = 0} is one such that θ x + b = 0} は θ である。 0.82
(cid:124) (cid:124) (cid:124) (cid:124) 0.78
This is transformed to a problem with a convex nonlinear objective function and linear constraints: これは凸非線形客観的関数と線形制約の問題に変換されます。 0.81
The “soft margin” version of the problem adds to the objective function the sum of the errors ξi that result when observation i falls on the wrong side of the hyperplane. 問題の「ソフトマージン」バージョンは、客観的関数に観察iが超平面の間違った側に落ちるときに生じるエラーの合計を追加します。 0.68
(10) (11) max θ,b,σ (10) (11) max θ,b,σ 0.85
2 σ ≤ yi(θ 2 σ ≤ yi(θ) 0.96
(cid:8)σ (cid:12)(cid:12) 1 (cid:8) 1 2(cid:107)θ(cid:107)2 (cid:8)σ (cid:12)(cid:12) 1 (cid:8) 1 2(cid:107)(cid:107)2 0.81
2 min θ,b (cid:124) 2 min θ,b (cid:124) 0.83
(cid:124) xi + b)/(cid:107)θ(cid:107)2, all i(cid:9) (cid:12)(cid:12) yi(θ xi + b) ≥ 1, all i(cid:9) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) yi(θ (cid:124) xi + b)/(cid:107)θ(cid:107)2, all i(cid:9) (cid:12)(cid:12) yi(θ xi + b) ≥ 1, all i(cid:9) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) yi(θ) 0.81
ξi (cid:124) 〈い〉 (cid:124) 0.54
xi + b) ≥ 1 − ξi, all i xi + b) ≥ 1 − si, all i 0.84
(cid:41) (cid:88) (cid:41) (cid:88) 0.78
i min θ,b,ξ 私は min (複数形 mins) 0.51
1 2(cid:107)θ(cid:107)2 1 2(cid:107)θ(cid:107)2 0.85
2 + C (cid:124) 2+C (cid:124) 0.74
xi + b)/(cid:107)θ(cid:107)1, all i(cid:9) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) yi(θ (cid:12)(cid:12)(cid :12)(cid:12) −ti ≤ θj ≤ tj, tj ≥ 0, all j xi + b)/(cid:107)θ(cid:107)1, all i(cid:9) (cid:12)(cid:12)(cid :12)(cid:12) yi(θ (cid:12)(cid:12)(cid :12)(cid:12) −ti ≤ θj ≤ tj, tj ≥ 0, all j 0.88
xi + b) ≥ 1 − ξi, all i xi + b) ≥ 1 − si, all i 0.84
xi + b) ≥ 1 − ξi, all i xi + b) ≥ 1 − si, all i 0.84
yi(θ (cid:124) yi(θ) (cid:124) 0.86
(cid:124) (cid:41) (cid:124) (cid:41) 0.78
min θ,b,ξ min (複数形 mins) 0.49
(cid:107)θ(cid:107)1 + C (cid:107)-(cid:107)1 +C 0.90
ξi (cid:88) 〈い〉 (cid:88) 0.54
i (cid:40)(cid:88) 私は (cid:40)(cid:88) 0.64
i min θ,b,ξ,t 私は min θ,b,\,t 0.59
(ti + Cξi) (ti + チェイ) 0.72
(cid:40) (cid:40) (cid:40) (cid:40) 0.78
This problem is solved by solving its Wolfe dual, which is much smaller because it no longer contains a constraint for each observation. この問題はヴォルフ双対を解くことで解決されるが、これは観測ごとに制約を含まないため、はるかに小さい。 0.68
The Wolfe dual is an equivalent problem because it satisfies Slater’s condition, and there is no duality gap as a result. ウルフ双対はスレーターの条件を満たすため等価な問題であり、結果として双対性ギャップは存在しない。 0.58
To obtain an LP model, the SVM problem can be normalized with the L1-norm instead of the L2-norm, LPモデルを得るには、SVM問題はL2ノルムの代わりにL1ノルムで正規化することができる。 0.67
in which case problem (10) becomes 問題(10)となる場合 0.61
max θ,b,σ (cid:8)σ (cid:12)(cid:12) 1 max θ,b,σ (cid:8)σ (cid:12)(cid:12) 1 0.82
2 σ ≤ yi(θ 2 σ ≤ yi(θ) 0.96
Early literature has studied this L1-norm based SVM and discussed its potential advantages over the conventional L2-norm based formulation (e.g. 初期の文献では、このL1-ノルムベースのSVMを研究し、従来のL2-ノルムベースの定式化(例えば。 0.56
Bradley and Mangasarian [1998], Zhu et al. Bradley and Mangasarian [1998], Zhu et al. (英語) 0.89
[2003]). Using a similar transformation as before, we have the soft margin problem [2003]). 以前と同じ変換を用いると、ソフトマージン問題が発生します。 0.59
Since (cid:107)θ(cid:107)1 =(cid:80) から (cid:107)θ(cid:107)1 = (cid:80) 0.79
(cid:41) i |θi|, we can now linearize the model to obtain an LP problem. (cid:41) i |*i| では、モデルを線形化して LP 問題を得ることができる。 0.66
6.2 Modeling classifications 6.2 モデリング分類 0.76
Social welfare and bias measures can be formulated only if we introduce 0–1 variables δi to indicate how an individual i is classified. 社会福祉とバイアス対策は、個人iがどのように分類されるかを示すために0-1変数δiを導入する場合にのみ定式化できる。
訳抜け防止モード: 社会福祉・偏見対策を策定できます。 i の分類方法を示すために 0–1 変数 δi を導入する。
0.59
The resulting problem can no longer be solved using the classical strategy of solving the Wolfe dual, because there is a duality gap when integer variables are present. 結果の問題は、整数変数が存在するときに双対性ギャップが存在するため、ヴォルフ双対を解く古典的な戦略ではもはや解決できない。 0.75
We therefore solve the original (primal) model directly by formulating it as an MILP problem. したがって,本モデルを直接ミルプ問題として定式化することにより解く。 0.69
xi +b ≥ 0. xi +b ≥ 0。 0.96
Due to the large number of variables δi, it is important to formulate this condition in a way that allows efficient solution. 変数 δi が多いため、効率的な解法を可能にする方法でこの条件を定式化することが重要である。 0.77
We therefore write a sharp MILP formulation of a disjunctive model for each δi (a sharp formulation is one whose continuous relaxation is the convex hull of the feasible set). したがって、それぞれの δi に対して連結モデルの鋭いミルプ定式化を記述する(シャープ定式化は、可逆集合の凸包が連続緩和であるようなものである)。 0.68
The disjunctive model is We wish to set δi = 1 when individual i falls on the true side of the hyperplane; that is when θ 解離モデルは 個々の i が超平面の真の側に落ちるとき、δi = 1 を設定したい。
訳抜け防止モード: 解離モデルは 個々の i が超平面の真側に沈むとき δi = 1 を定めることを望む θ (複数形 θs)
0.64
(cid:124) (cid:18)θ (cid:124) (cid:18)θ 0.81
(cid:19) ∨ (cid:19) ∨ 0.82
(cid:18)θ (cid:124) (cid:18)θ (cid:124) 0.81
xi + b ≤ 0 δi = 0 xi + b ≤ 0 δi = 0 0.94
(cid:124) xi + b ≥ 0 δi = 1 (cid:124) xi + b ≥ 0 δi = 1 0.86
(cid:19) (12) (cid:19) (12) 0.82
This model has an MILP representation if and only if the polyhedra described by the two disjuncts have the xi + b ≤ M , which same recession cone. このモデルがMILP表現を持つのは、2つの解離によって記述されるポリヘドラが xi + b ≤ M を持ち、同じ凹凸を持つときである。 0.73
To ensure this, we impose in each disjunct the constraint −M ≤ θ これを確実にするために、各離散に制約 −M ≤ を課す。 0.68
(cid:124) 14 (cid:124) 14 0.82
英語(論文から抽出)日本語訳スコア
is valid for sufficiently large M . 十分大きな M に対して有効である。 0.69
The disjunction (12) now has a sharp MILP representation that simplifies to 切断(12)は現在、単純化される鋭いミルプ表現を持っている 0.64
−M (1 − δi) ≤ θ −M (1 − δi) ≤ θ 0.96
(cid:124) xi + b ≤ M δi, δi ∈ {0, 1} (cid:124) xi + b ≤ M δi, δi ∈ {0, 1} 0.87
This constraint can be added to the SVM model for each i to define δi and enable the objective function to reflect bias or fairness. この制約を各 i に対して SVM モデルに追加して δi を定義し、目的関数がバイアスや公正さを反映できるようにする。 0.67
6.3 Incorporating fairness We first indicate how statistical bias measures can be incorporated into the SVM problem. 6.3 公正性 まず,SVM問題に統計的バイアス対策を組み込む方法を示す。 0.68
These metrics typically compare statistics for a protected group with those outside the protected group. これらの指標は通常、保護されたグループの統計と保護されたグループの外の統計を比較します。 0.59
For each observation i, let zi = 1 when individual i belongs to the protected group. 各観察 i に対して、個々の i が保護群に属するとき zi = 1 とする。 0.79
The simplest bias metric is demographic parity, which is based on the difference between the probability of true classification for and protected and unprotected individuals. 最も単純なバイアスメトリックは人口統計学的パリティであり、これは真の分類の確率と保護されていない個人との違いに基づいている。
訳抜け防止モード: 最も単純なバイアスの計量は人口差のパリティで 真の分類の確率と 保護されていない個人との違いに基づいています
0.79
This yields the bias metric |∆(δ)|, where これにより、バイアス計量 |\(δ)| が得られる。 0.70
(cid:80) i ziδi(cid:80) (cid:80) i ziδi(cid:80) 0.71
i zi ∆(δ) = i zi ∆(δ) = 0.78
(cid:80) (cid:80) i(1 − zi)δi i(1 − zi) (cid:80) (cid:80) i(1 − zi)δi i(1 − zi) 0.94
− plus-error and bias, λ(σ + C(cid:80) − plus-error and bias, λ(σ + C(cid:80) 0.87
This metric can be incorporated into the SVM problem by minimizing a convex combination of the margini ξi) + (1 − λ)|∆(δ)|, where 0 ≤ λ ≤ 1. この計量は、0 ≤ λ ≤ 1 の辺の辺結合 (1 − λ) + (1 − λ)|(δ)| を最小化することにより、SVM 問題に組み込むことができる。 0.82
Since ∆(δ) is a linear function of δ, δ(δ) は δ の線型函数であるからである。 0.84
the problem is easily linearized by extending the LP model (11) to obtain the following MILP model: 問題は、以下のMILPモデルを得るためにLPモデル(11)を拡張して簡単に線形化されます。 0.70
λ(cid:80) i(ti + Cξi) λ(cid:80) i(ti+c>i) 0.84
+(1 − λ)w min θ,b,ξ t,δ,w +(1 − λ)w min θ,b,\ t,δ,w 0.81
  0.85
−ti ≤ θj ≤ tj, tj ≥ 0, all j xi + b) ≥ 1 − ξi, all i (cid:124) yi(θ −w ≤ ∆(δ) ≤ w −ti ≤ θj ≤ tj, tj ≥ 0, all j xi + b) ≥ 1 − i , all i (cid:124) yi(θ −w ≤ )(δ) ≤ w 0.95
−M (1 − δi) ≤ θ −M (1 − δi) ≤ θ 0.96
(cid:124) xi + b, all i (cid:124) xi + b, all i 0.82
(cid:124) θ (cid:124) θ 0.82
xi + b ≤ M δi, all i δi ∈ {0, 1}, all i xi + b ≤ M δi, all i δi ∈ {0, 1}, all i 0.89
A similar MILP model can be used for equalized odds, since the corresponding function ∆(δ) is likewise a linear function of δ. Predictive rate parity requires a SWF that contains ratios of affine functions, but it can be formulated as an MILP problem using the same change of variable as in linear-fractional programming. 同様のMILPモデルも等化オッズに利用できるが、これは対応する関数 δ(δ) も δ の線型関数であるためである。予測速度パリティはアフィン関数の比を含む SWF を必要とするが、線形フラクタルプログラミングと同じ変数変化を用いてMILP問題として定式化できる。 0.87
We now formulate a more general model that maximizes social welfare. 現在、社会福祉を最大化するより一般的なモデルを策定しています。 0.55
For illustrative purposes, we maximize a convex combination of (negated) margin-plus-error and a social welfare function W (u), so as to allow the accuracy of prediction to contribute to welfare. 図示のために、予測の精度が福祉に貢献することができるように、(負の)マージンプラスエラーと社会福祉機能W(u)の凸の組み合わせを最大化します。 0.66
The function W (u) could reflect fairness or a combination of fairness and utility, as discussed in previous sections. 関数 W (u) は、前節で述べたように、公平性や有用性の組み合わせを反映することができる。 0.60
This general model requires that we define the utility ui enjoyed by each individual i, which will depend on whether the individual receives the true classification. この一般モデルは、個々の i が楽しむユーティリティ ui を定義する必要があるが、それは個人が真の分類を受けるかどうかに依存する。 0.66
If we let ui = c0 + ciδi, then we can set ci > 0 for an individual with yi = 1 to indicate that the individual is better off being classified true, while we set ci < 0 when yi = −1 to indicate that being classified false is better. ui = c0 + ciδi とすると、yi = 1 の個人に対して ci > 0 をセットして、その個人が真に分類されていることを示すことができるが、yi = −1 であれば ci < 0 をセットして、分類された偽の方が良いことを示すことができる。
訳抜け防止モード: ui = c0 + ciδi とすると、yi = 1 の個体に対して ci > 0 をセットして、個体が真に分類されていることを示すことができる。 yi = −1 の場合、ci < 0 とすると分類される方がよい。
0.75
We now obtain the problem  問題は解決しました  0.75
max θ,b,ξ t,δ,w max θ,b,\,t,δ,w 0.77
−λ(cid:80) -λ(cid:80) 0.70
i(ti + Cξi) +(1 − λ)W (u) i(ti + C'i) +(1 − λ)W(u) 0.93
−ti ≤ θj ≤ tj, tj ≥ 0, all j xi + b) ≥ 1 − ξi, all i yi(θ ui = c0 + ciδi, all i −ti ≤ θj ≤ tj, tj ≥ 0, all j xi + b) ≥ 1 − si, all i yi(θ ui = c0 + ciδi, all i 0.97
(cid:124) −M (1 − δi) ≤ θ (cid:124) −M (1 − δi) ≤ θ 0.87
(cid:124) xi + b, all i (cid:124) xi + b, all i 0.82
(cid:124) θ (cid:124) θ 0.82
xi + b ≤ M δi, all i δi ∈ {0, 1}, all i xi + b ≤ M δi, all i δi ∈ {0, 1}, all i 0.89
Since the term (cid:80) 用語(cid:80)以来 0.86
i(ti + Cξi) in the objective function is linear, the objective function can be linearized whenever W (u) can be linearized. 目的関数の i(ti + C) は線型であり、W(u) が線型化可能であると、目的関数は線型化することができる。 0.72
In particular, there is an MILP model whenever previous sections describe an LP or MILP model for the social welfare function W . 特に、以前のセクションで社会福祉機能WのLPまたはMILPモデルを記述するたびにMILPモデルがあります。 0.62
  0.85
  0.85
(cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)cid:12) 0.67
(cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)cid:12) 0.67
15 15 0.85
英語(論文から抽出)日本語訳スコア
7 Conclusion We have shown how optimization can provide a general paradigm for incorporating fairness into AI and machine learning applications. 7 結論 我々は、最適化がAIと機械学習アプリケーションに公平性を取り入れるための一般的なパラダイムを提供する方法を示した。 0.66
In particular, we have illustrated how it can be used in rule-based systems, in conjunction with neural networks, or as part of the optimization problem in support vector machines. 特に、ルールベースのシステム、ニューラルネットワークとの連携、またはサポートベクターマシンの最適化問題の一部としての使用方法について説明しました。 0.62
By expanding the fairness problem to one of maximizing a social welfare function, one can combine fairness with prediction accuracy and other efficiency goals in a principled way. フェアネス問題を社会福祉機能の最大化の1つに拡張することにより、フェアネスと予測精度その他の効率目標を原則的に組み合わせることができる。
訳抜け防止モード: フェアネス問題を社会福祉機能の最大化の1つに拡大することで 公平性と予測精度、その他の効率目標を原則的に組み合わせることができる。
0.69
Optimization models also provide the flexibility of adding constraints on resources and other problem elements while harnessing the power of highly advanced optimization solvers that have been developed over several decades. 最適化モデルはまた、数十年にわたって開発された高度な最適化ソルバーの力を活用しながら、リソースやその他の問題要素に制約を加える柔軟性を提供します。 0.72
Specifically, we have exhibited practical optimization models for 16 useful social welfare functions. 具体的には,16の社会福祉機能に対する実用的最適化モデルを示す。 0.76
Most of these models do not, to our knowledge, appear in previous literature. これらのモデルのほとんどは、我々の知る限り、以前の文献には現れない。 0.73
They can be efficiently solved by state-of-the-art software: six by linear programming solvers, eight by mixed integer/linear programming solvers, and two by convex nonlinear or quadratic programming solvers that accommodate linear constraints. 線形プログラミングソルバで6つ、混合整数/線形プログラミングソルバで8つ、線形制約に対応した凸非線形または二次プログラミングソルバで2つを効率良く解くことができます。 0.70
References S. Aghaei, M. J. Azizi, and P. Vayanos. 参考文献 S. Aghaei、M. J. Azizi、P. Vayanos。 0.74
Learning optimal and fair decision trees for non-discriminative In Proceedings of the AAAI Conference on Artificial Intelligence, volume 33, pages aaai conference on artificial intelligence, volume 33, pages における非差別性のための最適かつ公平な決定木を学ぶ 0.82
decision-making. 1418–1426, 2019. 意思決定。 1418–1426, 2019. 0.71
I. Alabdulmohsin. I. Alabdulmohsin。 0.91
Fair classification via unconstrained optimization. 制約のない最適化による公平な分類。 0.56
arXiv preprint, 2005.14621, 2020. arXiv preprint, 2005.14621, 2020. 0.94
C. Allen, I. Smit, and W. Wallach. C. Allen、I. Smit、W. Wallach。 0.88
Artificial morality: Top-down, bottom-up, and hybrid approaches. 人工道徳:トップダウン、ボトムアップ、ハイブリッドアプローチ。 0.68
Ethics and Information Technology, 7:149–155, 2005. 倫理 The Information Technology, 7:149–155, 2005。 0.67
R. Berk, H. Heidari, S. Jabbari, M. Joseph, M. Kearns, J. Morgenstern, S. Neel, and A. Roth. R. Berk、H. Heidari、S. Jabbari、M. Joseph、M. Kearns、J. Morgenstern、S. Neel、A. Roth。 0.83
A convex convex (複数形 convexs) 0.36
framework for fair regression. 公平な回帰のためのフレームワーク。 0.50
arXiv preprint arXiv:1706.02409, 2017. arXiv preprint arXiv:1706.02409, 2017 0.79
K. Binmore, A. Rubinstein, and A. Wolinsky. K. Binmore、A. Rubinstein、A. Wolinsky。 0.90
The Nash bargaining solution in economic modeling. 経済モデリングにおけるナッシュ交渉ソリューション。 0.71
RAND Journal of Economics, 17:176–188, 1986. ランド Journal of Economics, 17:176–188, 1986。 0.60
P. S. Bradley and O. L. Mangasarian. P.S.ブラッドリーとO.L.マンガサリアン。 0.53
Feature selection via concave minimization and support vector 凹凸最小化と支持ベクトルによる特徴選択 0.87
machines. In ICML, volume 98, pages 82–90, 1998. マシンだ ICMLでは、98巻、82-90ページ、1998。 0.71
S. Bringsjord, K. Arkoudas, and P. Bello. S. bringsjord、K. Arkoudas、P. Bello。 0.84
Toward a general logicist methodology for engineering ethically 倫理的工学の一般論理主義的方法論を目指して 0.58
correct robots. IEEE Intelligent Systems, 21:38–44, 2006. 正しいロボット。 IEEE Intelligent Systems, 21:38–44, 2006。 0.75
F. Calmon, D. Wei, B. Vinzamuri, K. N. Ramamurthy, and K. R. Varshney. F. Calmon、D. Wei、B. Vinzamuri、K. N. Ramamurthy、K. R. Varshney。 0.79
Optimized pre-processing for discrimination prevention. 識別防止のための最適化前処理。 0.59
In Advances in Neural Information Processing Systems, pages 3992–4001, 2017. In Advances in Neural Information Processing Systems, page 3992–4001, 2017 0.86
A. Charnes and W. W. Cooper. A.CharnesとW.W.クーパー。 0.65
Programming with linear fractional functionals. 線形分数関数によるプログラミング。 0.81
Naval Research Logistics Quarterly, 9:181–186, 1962. 海軍研究物流 1962年、9:181–186。 0.68
V. Chen and J. N. Hooker. V. ChenとJ.N. Hooker。 0.78
A just approach balancing Rawlsian leximax fairness and utilitarianism. Rawlsian leximax Fairness と utilitarianism のバランスをとるアプローチ。 0.80
In AAAI/ACM Conference on AI, Ethics, and Society (AIES), pages 221–227, 2020a. 内 AAAI/ACM Conference on AI, Ethics, and Society (AIES), page 221–227, 2020a. 0.79
V. Chen and J. N. Hooker. V. ChenとJ.N. Hooker。 0.78
Balancing fairness and efficiency in an optimization model. 最適化モデルにおける公平性と効率のバランス。 0.70
arXiv preprint, arXiv プリプリント。 0.81
2006.05963, 2020b. 2006.05963, 2020b 0.79
M. Chiarandini, R. Fagerberg, and S. Gualandi. M. Chiarandini、R. Fagerberg、S. Gualandi。 0.88
Handling preferences in student-project allocation. 学生プロジェクト割り当てにおける選好の扱い。 0.61
Annals of Operations Research, 275(1):39–78, 2019. アナルズ 運用研究会 275(1):39-78, 2019。 0.65
A. Chouldechova and A. Roth. A. ChouldechovaとA. Roth。 0.88
A snapshot of the frontiers of fairness in machine learning. 機械学習における公平性のフロンティアのスナップショット。 0.64
Communications of the ACM, 63(5):82–89, 2020. 通信 ACM:63(5):82-89, 2020。 0.76
16 16 0.85
英語(論文から抽出)日本語訳スコア
F. A. Cowell. Measurement of inequality. f・a・コーウェル 不平等の測定。 0.68
In A. B. Atkinson and F. Bourguignon, editors, Handbook of Aで。 B. Atkinson and F. Bourguignon, editors, Handbook of 0.85
Income Distribution, volume 1, pages 89–166. 収入分布、巻1、89-166ページ。 0.76
Elsevier, 2000. エルセヴィエ、2000年。 0.58
M. Donini, L. Oneto, S. Ben-David, J. S. Shawe-Taylor, and M. Pontil. M. Donini、L. Oneto、S. Ben-David、J. S. Shawe-Taylor、M. Pontil。 0.72
Empirical risk minimization under fairness constraints. 経験的リスク最小化 公正な制約だ 0.66
In Advances in Neural Information Processing Systems, pages 2791–2801, 2018. 神経情報処理システムの進歩』2791-2801頁、2018年。 0.71
C. Dwork, M. Hardt, T. Pitassi, O. Reingold, and R. S. Zemel. C.Dwork、M. Hardt、T. Pitassi、O. Reingold、R.S. Zemel。 0.83
Fairness through awareness. In Symposium 意識による公平性。 シンポジウムに寄せて 0.52
on Innovations in Theoretical Computer Science (ITCS), pages 214–226, 2012. on Innovations in Theoretical Computer Science (ITCS), page 214–226, 2012 0.82
O. Eisenhandler and M. Tzur. O. EisenhandlerおよびM. Tzur。 0.86
The humanitarian pickup and distribution problem. 人道的ピックアップと流通の問題。 0.54
Operations Research, 67: 10–32, 2019. 運用研究、67: 10–32, 2019. 0.80
H. G. Frankfurt. h.g.フランクフルト。 0.62
On Inequality. Princeton University Press, 2015. 不平等。 プリンストン大学出版局、2015年。 0.59
S. Freeman, editor. S. Freeman、編集者。 0.73
The Cambridge Companion to Rawls. ケンブリッジ・コンパニオン(Cambridge Companion to Rawls)の略。 0.48
Cambridge University Press, 2003. ケンブリッジ大学出版局、2003年。 0.65
I. Gabriel. Artificial intelligence, values, and alignment. ガブリエル。 人工知能、価値観、アライメント。 0.43
Minds and Machines, 30:411–437, 2020. Minds and Machines, 30:411–437, 2020 0.84
D. Gautier. Morals by Agreement. D.ガウティ。 合意による道徳。 0.69
Oxford University Press, 1983. オックスフォード大学出版局、1983年。 0.70
N. Goel, M. Yaghini, and B. Faltings. N. Goel、M. Yaghini、B. Faltings。 0.90
Non-discriminatory machine learning through convex fairness criteria. 凸フェアネス基準による非差別機械学習 0.67
In Proceedings of the AAAI Conference on Artificial Intelligence, volume 32, 2018. 人工知能に関するAAAI会議の進行において、2018年第32巻。 0.66
M. Hardt, E. Price, and N. Srebro. M. Hardt、E. Price、N. Srebro。 0.89
Equality of opportunity in supervised learning. 教師付き学習における機会の平等。 0.61
In Advances in neural information processing systems, pages 3315–3323, 2016. 神経の進歩において 情報処理システム、ページ3315-3323、2016。 0.73
J. C. Harsanyi. j. c. harsanyi。 0.69
Rational Behavior and Bargaining Equilibrium in Games and Social Situations. ゲームと社会状況における合理的行動と均衡 0.76
Cambridge University Press, 1977. ケンブリッジ 1977年、大学出版。 0.69
H. Heidari, C. Ferrari, K. Gummadi, and A. Krause. H. Heidari、C. Ferrari、K. Gummadi、A. Krause。 0.87
Fairness behind a veil of ignorance: A welfare analysis for automated decision making. 無知のベールの背後にある公正性:自動意思決定のための福祉分析 0.71
In Advances in Neural Information Processing Systems, pages 1265–1276, 2018. In Advances in Neural Information Processing Systems, page 1265–1276, 2018 0.86
H. Heidari, M. Loi, K. P. Gummadi, and A. Krause. H. Heidari、M. Loi、K. P. Gummadi、A. Krause。 0.80
A moral framework for understanding fair ml through economic models of equality of opportunity. 機会平等の経済モデルを通して公正なmlを理解するための道徳的枠組み。 0.69
In Proceedings of the Conference on Fairness, Accountability, and Transparency, pages 181–190, 2019. The Proceedings of the Conference on Fairness, Accountability, and Transparency, page 181–190, 2019。 0.88
J. N. Hooker and T. W. Kim. J.N.フッカーとT.W.キム。 0.56
Toward non-intuition-based machine and artificial intelligence ethics: A In AAAI/ACM Conference on AI, Ethics, and Society 非直感的機械と人工知能倫理に向けて:AI、倫理、社会に関するAAAI/ACM会議 0.77
deontological approach based on modal logic. モーダル論理に基づくデオントロジー的アプローチ。 0.70
(AIES), pages 130–136, 2018. (AIES)、130-136ページ、2018。 0.79
J. N. Hooker and H. P. Williams. J.N.フッカーとH.P.ウィリアムズ。 0.68
Combining equity and utilitarianism in a mathematical programming 数学的プログラミングにおけるエクイティと実用主義の組み合わせ 0.61
model. Management Science, 58:1682–1693, 2012. モデル。 Management Science, 58:1682–1693, 2012。 0.75
L. Hu and Y. Chen. L. HuとY. Chen。 0.85
Fair classification and social welfare. 公平な分類と社会福祉。 0.81
In Proceedings of the 2020 Conference on Fairness, 2020年「公正会議」の開催にあたって 0.74
Accountability, and Transparency, pages 535–545, 2020. 説明責任、透明性、2020年535-545頁。 0.71
D. A. Iancu and N. Trichakis. D. A. IancuとN. Trichakis。 0.81
Fairness and efficiency in multiportfolio optimization. マルチポートフォリオ最適化における公平性と効率性 0.61
Operations Research, 62(6):1285–1301, 2014. 運用研究。 62(6):1285–1301, 2014. 0.74
S. P. Jenkins and P. Van Kerm. S.P.ジェンキンスとP.ヴァンケルム。 0.62
The measurement of economic inequality. In B. Nolan, W. Salverda, and 経済不平等の測定。 B. Nolan, W. Salverda, and 0.78
T. M. Smeeding, editors, The Oxford Handbook of Economic Inequality. T.M. Smeeding, editors, The Oxford Handbook of Economic Inequality 0.86
Oxford University Press, 2011. オックスフォード大学出版局、2011年。 0.64
E. Kalai and M. Smorodinsky. E. KalaiとM. Smorodinsky。 0.85
Other solutions to Nash’s bargaining problem. Nashの交渉問題に対する他のソリューション。 0.83
Econometrica, 43:513–518, Econometrica, 43:513–518 0.71
1975. O. Karsu and A. Morton. 1975. O.KarsuとA.Morton。 0.79
Inequity-averse optimization in operational research. 運用研究における不等式逆最適化 0.57
European Journal of Opera- ヨーロッパオペラ・ジャーナル 0.65
tional Research, 245:343–359, 2015. 2015年:245:343–359。 0.68
17 17 0.85
英語(論文から抽出)日本語訳スコア
T. Lan, D. Kao, M. Chiang, and A. Sabharwal. T. Lan、D. Kao、M. Chiang、A. Sabharwal。 0.88
An axiomatic theory of fairness in network resource allocation. ネットワークリソース割り当てにおける公正性の公理理論 0.77
In Conference on Information Communications (INFOCOM 2010), pages 1343–1351. 情報通信に関する会議(INFOCOM 2010)、1343-1351ページ。 0.83
IEEE, 2010. 2010年、IEEE。 0.67
F. Lindner, R. Mattm¨uller, and B. Nebel. F・リンドナー、R・マット・シュラー、B・ネベル。 0.47
Evaluation of the moral permissibility of action plans. 行動計画の道徳的許容性の評価。 0.69
Artificial Intelligence, 287, 2020. 人工物 インテリジェンス、287年、2020年。 0.66
H. Luss. On equitable resource allocation problems: A lexicographic minimax approach. H. Luss。 資源割当問題について:語彙的ミニマックスアプローチ 0.76
Operations Research, 47(3):361–378, 1999. 運用研究。 47(3):361–378, 1999. 0.74
C. McElfresh and J. Dickerson. C. McElfreshとJ. Dickerson。 0.88
Balancing lexicographic fairness and a utilitarian objective with application to kidney exchange. 語彙的公平性と有効目的のバランスと腎臓交換への応用 0.70
In Proceedings of AAAI Conference on Artificial Intelligence (AAAI 2018), pages 1161–1168, 2018. In Proceedings of AAAI Conference on Artificial Intelligence (AAAI 2018), page 1161–1168, 2018。 0.87
N. Mehrabi, F. Morstatter, N. Saxena, K. Lerman, and A. Galstyan. N. Mehrabi、F. Morstatter、N. Saxena、K. Lerman、A. Galstyan。 0.85
A survey on bias and fairness in バイアスと公平性に関する調査 0.69
machine learning. arXiv preprint, 1908.09635, 2019. 機械学習。 arXiv preprint, 1908.09635, 2019 0.83
M. Mostajabdaveh, W. J. Gutjahr, and S. Salman. M. Mostajabdaveh、W. J. Gutjahr、S. Salman。 0.85
Inequity-averse shelter location for disaster preparedness. 災害に備える不平等な避難所。 0.57
IISE Transactions, 51(8):809–829, 2019. IISE Transactions, 51(8):809-829, 2019 0.90
V. Nanda, P. Xu, K. A. Sankararaman, J. Dickerson, and A. Srinivasan. V. Nanda、P. Xu、K. A. Sankararaman、J. Dickerson、A. Srinivasan。 0.84
Balancing the tradeoff between profit and fairness in rideshare platforms during high-demand hours. 配車プラットフォームの高需要時間における利益と公平性のトレードオフのバランス。 0.57
In Proceedings of the AAAI Conference on Artificial Intelligence, volume 34, pages 2210–2217, 2020. AAAI Conference on Artificial IntelligenceのProceedings of the Proceedings of the AAAI Conference on Artificial Intelligence, Volume 34, pages 2210–2217, 2020。 0.66
J. Nash. The bargaining problem. J・ナッシュ。 交渉の問題。 0.60
Econometrica, 18:155–162, 1950. Econometrica, 18:155–162, 1950。 0.71
W. Ogryczak and T. ´Sliwi´nski. W. Ogryczak and T. ́Sliwi ́nski 0.68
On equitable approaches to resource allocation problems: The conditional 資源配分問題への公平なアプローチ:条件付き 0.82
minimax solutions. minimaxソリューション。 0.74
Journal of Telecommunications and Information Technology, pages 40–48, 2002. Journal of Telecommunications and Information Technology、40-48、2002年。 0.87
W. Ogryczak and T. ´Sliwi´nski. W. Ogryczak and T. ́Sliwi ́nski 0.68
On direct methods for lexicographic min-max optimization. Lexicographic min-max最適化の直接的方法について 0.62
In M. Gavrilova, O. Gervasi, V. Kumar, C. J. K. Tan, D. Taniar, A. Lagan´a, Y. Mun, and H. Choo, editors, Proceedings of International Conference on Computational Science and Its Applications (ICCSA 2006), volume 3982 of LNCS, pages 802–811, 2006. M. Gavrilova, O. Gervasi, V. Kumar, C. J. K. Tan, D. Taniar, A. Lagan ́a, Y. Mun, and H. Choo, editors, Proceedings of International Conference on Computational Science and Its Applications (ICCSA 2006), Volume 3982 of LNCS, page 802–811, 2006 0.96
W. Ogryczak, A. Wierzbicki, and M. Milewski. W. Ogryczak、A. Wierzbicki、M. Milewski。 0.87
A multi-criteria approach to fair and efficient bandwidth 公正かつ効率的な帯域幅に対するマルチ基準アプローチ 0.71
allocation. Omega, 36(3):451–463, 2008. 割り当て。 Omega, 36(3):451–463, 2008 0.80
M. Olfat and A. Aswani. M. OlfatとA. Aswani。 0.89
Spectral algorithms for computing fair support vector machines. フェアサポートベクターマシンの計算のためのスペクトルアルゴリズム。 0.79
In International Conference on Artificial Intelligence and Statistics, pages 1933–1942, 2018. 海外では 人工知能と統計に関する会議、1933-1942ページ、2018。 0.67
D. Parfit. Equality and priority. D.Parfit 平等と優先順位。 0.71
Ratio, pages 201–221, 1997. 1997年、201-221頁。 0.62
J. Rawls. A Theory of Justice (revised). J.Rawls 正義論(英: theory of justice)。 0.72
Harvard University Press (original edition 1971), 1999. ハーバード大学出版局(1971年原版)、1999年。 0.72
H. S. Richardson and P. J. Weithman, editors. H・S・リチャードソンとP・J・ワイスマン、編集者。 0.52
The Philosophy of Rawls (5 volumes). the philosophy of rawls (5巻)を参照。 0.70
Garland, 1999. ガーランド、1999年。 0.67
A. Rubinstein. A.ルビンシュタイン。 0.63
Perfect equilibrium in a bargaining model. 交渉モデルにおける完全な均衡。 0.75
Econometrica, 50:97–109, 1982. Econometrica, 50:97–109, 1982。 0.70
S. Russell. Human Compatible: AI and the Problem of Control. s・ラッセル 人間との互換性:AIと制御の問題。 0.68
Bristol, UK: Allen Lane, 2019. Bristol, UK: Allen Lane, 2019。 0.83
T. M. Scanlon. T.M.スキャノン。 0.56
The diversity of objections to inequality. 不平等に対する異論の多様性。 0.72
In T. M. Scanlon, editor, The Difficulty of Tolerance: T. M. Scanlon, editor, The Difficulty of Tolerance: 0.89
Essays in Political Philosophy, pages 202–218. 政治哲学のエッセイ、202-218ページ。 0.74
Cambridge University Press, 2003. ケンブリッジ大学出版局、2003年。 0.65
I. Stelmakh, N. B. Shah, and A. Singh. I. Stelmakh, N. B. Shah, A. Singh 0.92
Peerreview4all: Fair and accurate reviewer assignment in peer review. peerreview4all: 公正で正確なレビュー担当者の割り当て。 0.65
Proceedings of Machine Learning Research, 98:1–29, 2019. Proceedings of Machine Learning Research, 98:1–29, 2019。 0.82
W. Thompson. Cooperative models of bargaining. W・トンプソン。 交渉の協力モデル。 0.63
In R. J. Aumann and S. Hart, editors, Handbook of Game R. J. Aumann and S. Hart, Editors, Handbook of Game 0.93
Theory, volume 2, pages 1237–1284. 理論、巻2、巻1237-1284。 0.56
North-Holland, 1994. 1994年、北ホーランド。 0.67
18 18 0.85
英語(論文から抽出)日本語訳スコア
A. Williams and R. Cookson. A.ウィリアムズとR.クックソン。 0.70
Equity in health. In A. Culyer and J. Newhouse, editors, Handbook of Health 健康に関すること。 A. Culyer and J. Newhouse, Editors, Handbook of Health 0.80
Economics. Elsevier, 2000. 経済学。 エルセヴィエ、2000年。 0.67
M. B. Zafar, I. Valera, M. Gomez Rodriguez, and K. P. Gummadi. M. B. Zafar, I. Valera, M. Gomez Rodriguez, K. P. Gummadi 0.89
Fairness beyond disparate treatment & disparate impact: Learning classification without disparate mistreatment. 異種治療と異種影響を超えた公平性:異種治療のない学習分類。 0.62
In Proceedings of the 26th international conference on world wide web, pages 1171–1180, 2017. 第26回world wide web国際会議の議事録で、2017年1171-1180頁。 0.76
M. B. Zafar, I. Valera, M. Gomez-Rodriguez, and K. P. Gummadi. M. B. Zafar、I. Valera、M. Gomez-Rodriguez、K. P. Gummadi。 0.73
Fairness constraints: A flexible approach 公平性制約:柔軟なアプローチ 0.83
for fair classification. Journal of Machine Learning Research, 20(75):1–42, 2019. 公平な分類のために Journal of Machine Learning Research, 20(75):1–42, 2019. 0.83
R. Zemel, Y. Wu, K. Swersky, T. Pitassi, and C. Dwork. R. Zemel、Y. Wu、K. Swersky、T. Pitassi、C. Dwork。 0.88
Learning fair representations. In International 公正な表現を学ぶ。 海外では 0.59
Conference on Machine Learning, pages 325–333, 2013. Conference on Machine Learning, pages 325–333, 2013 0.88
J. Zhu, S. Rosset, R. Tibshirani, and T. Hastie. J. Zhu, S. Rosset, R. Tibshirani, T. Hastie 0.89
1-norm support vector machines. 1-normサポートベクターマシン。 0.74
Advances in neural information processing systems, 16:49–56, 2003. 神経の進歩 情報処理システム, 16:49-56, 2003。 0.68
19 19 0.85
                                       ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。