論文の概要: Online Fair Division with Additional Information
- arxiv url: http://arxiv.org/abs/2505.24503v1
- Date: Fri, 30 May 2025 12:06:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.93651
- Title: Online Fair Division with Additional Information
- Title(参考訳): 追加情報付きオンラインフェアディビジョン
- Authors: Tzeh Yuan Neoh, Jannik Peters, Nicholas Teh,
- Abstract要約: オンライン環境では,特定不可能な商品をエージェントにかなり割り当てる問題について検討する。
我々は、将来の商品に関する情報の入手が、公平なアロケーションの存在と近似性にどのように影響するかを問う。
既知結果よりも高い公平性を保証するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 7.435063833417366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of fairly allocating indivisible goods to agents in an online setting, where goods arrive sequentially and must be allocated irrevocably to agents. Focusing on the popular fairness notions of envy-freeness, proportionality, and maximin share fairness (and their approximate variants), we ask how the availability of information on future goods influences the existence and approximability of fair allocations. In the absence of any such information, we establish strong impossibility results, demonstrating the inherent difficulty of achieving even approximate fairness guarantees. In contrast, we demonstrate that knowledge of additional information -- such as aggregate of each agent's total valuations (equivalently, normalized valuations) or the multiset of future goods values (frequency predictions) -- would enable the design of fairer online algorithms. Given normalization information, we propose an algorithm that achieves stronger fairness guarantees than previously known results. Given frequency predictions, we introduce a meta-algorithm that leverages frequency predictions to match the best-known offline guarantees for a broad class of ''share-based'' fairness notions. Our complementary impossibility results in each setting underscore both the limitations imposed by uncertainty about future goods and the potential of leveraging structured information to achieve fairer outcomes in online fair division.
- Abstract(参考訳): 我々は、商品が順次到着し、エージェントに不当に分配されなければならないオンライン環境で、不特定商品をエージェントにかなり割り当てるという問題を調査する。
偏見自由、比例、最大シェアフェアネス(およびその近似変種)という一般的なフェアネスの概念に注目して、将来の商品に関する情報の入手がフェアアロケーションの存在と近似性にどのように影響するかを問う。
このような情報がない状態では、近似公正性を保証することの難しさを証明し、強い不可視性結果を確立する。
対照的に、各エージェントの総評価(同様に正規化評価)の集計や将来の商品価値(周波数予測)の多集合といった追加情報に関する知識が、より公平なオンラインアルゴリズムの設計を可能にすることを実証する。
正規化情報を考慮し,既知結果よりも高い公平性を保証するアルゴリズムを提案する。
周波数予測を前提として,周波数予測を利用するメタアルゴリズムを導入し,広義の「シェアベース」フェアネスの概念に対して最もよく知られたオフライン保証に適合する。
我々の補完的不合理性は、それぞれの設定において、将来の商品の不確実性による制限と、オンラインフェアディビジョンにおいてより公平な結果を達成するために構造化情報を活用する可能性の両方を強調します。
関連論文リスト
- Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Sampling Individually-Fair Rankings that are Always Group Fair [9.333939443470944]
公正ランキングタスクは、グループフェアネスの制約を満たすために、実用性を最大化するために一連のアイテムをランク付けするよう要求する。
近年の研究では、品物の効用の不確かさが不公平の原因となっている。
我々は,各アウトプットランキングがグループフェアであることを保証しながら,個別のフェア分布からランキングを抽出する効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-21T01:26:34Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fair Ranking with Noisy Protected Attributes [25.081136190260015]
商品の社会的特質が無作為かつ独立に摂動するモデルの下で、公平な問題を考察する。
本稿では,グループフェアネス要件と,社会的に安定な属性の摂動に関する確率的情報とを組み込んだ公平なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T15:22:28Z) - Attainability and Optimality: The Equalized Odds Fairness Revisited [8.44348159032116]
等化オッドの公正性の概念の達成可能性を考える。
分類において、後処理による公平性を強制することと比較して、利用可能なすべての機能を利用する利点が常にあることを証明します。
性能予測は理論的保証で等化オッドを達成できるが、その限界と潜在的な負の社会的影響についても論じる。
論文 参考訳(メタデータ) (2022-02-24T01:30:31Z) - Fair Normalizing Flows [10.484851004093919]
FNF(Fair Normalizing Flows)は、学習された表現に対してより厳密な公正性を保証する新しい手法である。
FNFの主な利点は、その正確な確率計算により、潜在的に逆下流予測器の最大不公平性の保証が得られることである。
我々は,FNFが様々なグループフェアネスの概念を強制する上での有効性を実験的に示すとともに,解釈可能性や伝達学習といった他の魅力的な特性も示す。
論文 参考訳(メタデータ) (2021-06-10T17:35:59Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Fast Fair Regression via Efficient Approximations of Mutual Information [0.0]
本稿では, 回帰モデルに対する独立性, 分離性, 充足性グループフェアネス基準の高速な近似について紹介する。
正規化リスク最小化フレームワーク内で公正性を強制するために、正規化のような近似を使用する。
実世界のデータセットでの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
論文 参考訳(メタデータ) (2020-02-14T08:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。