論文の概要: FAIRO: Fairness-aware Adaptation in Sequential-Decision Making for
Human-in-the-Loop Systems
- arxiv url: http://arxiv.org/abs/2307.05857v1
- Date: Wed, 12 Jul 2023 00:35:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 14:38:48.484596
- Title: FAIRO: Fairness-aware Adaptation in Sequential-Decision Making for
Human-in-the-Loop Systems
- Title(参考訳): fairo: ループ内人間システムのためのシーケンシャル・デシジョン・メイキングにおけるフェアネス・アウェア適応
- Authors: Tianyu Zhao, Mojtaba Taherisadr, Salma Elmalaki
- Abstract要約: 本稿では,Human-in-the-Loop(HITL)適応における公平性を考慮したシーケンシャル意思決定のための新しいアルゴリズムを提案する。
特に、FAIROは、この複雑な公正タスクを、個々の人間の好みに基づいて適応的なサブタスクに分解する。
FAIROは、他の3つのアプリケーションと比較して、35.36%の公平性を向上できることを示す。
- 参考スコア(独自算出の注目度): 7.451835703387791
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Achieving fairness in sequential-decision making systems within
Human-in-the-Loop (HITL) environments is a critical concern, especially when
multiple humans with different behavior and expectations are affected by the
same adaptation decisions in the system. This human variability factor adds
more complexity since policies deemed fair at one point in time may become
discriminatory over time due to variations in human preferences resulting from
inter- and intra-human variability. This paper addresses the fairness problem
from an equity lens, considering human behavior variability, and the changes in
human preferences over time. We propose FAIRO, a novel algorithm for
fairness-aware sequential-decision making in HITL adaptation, which
incorporates these notions into the decision-making process. In particular,
FAIRO decomposes this complex fairness task into adaptive sub-tasks based on
individual human preferences through leveraging the Options reinforcement
learning framework. We design FAIRO to generalize to three types of HITL
application setups that have the shared adaptation decision problem.
Furthermore, we recognize that fairness-aware policies can sometimes conflict
with the application's utility. To address this challenge, we provide a
fairness-utility tradeoff in FAIRO, allowing system designers to balance the
objectives of fairness and utility based on specific application requirements.
Extensive evaluations of FAIRO on the three HITL applications demonstrate its
generalizability and effectiveness in promoting fairness while accounting for
human variability. On average, FAIRO can improve fairness compared with other
methods across all three applications by 35.36%.
- Abstract(参考訳): HITL(Human-in-the-Loop)環境における逐次決定システムにおける公平性の達成は、特に、異なる行動と期待を持つ複数の人間が、システム内の同じ適応決定によって影響を受ける場合において重要な関心事である。
この人的変動係数は、ある時点で公正であると考えられる政策が、人間間および人的変動から生じる人間の嗜好の変化により、時間とともに差別的になる可能性があるため、複雑さを増す。
本稿では,人間の行動の変動や時間経過に伴う人の嗜好の変化を考慮し,エクイティレンズからの公平性問題に対処する。
本稿では,これらの概念を意思決定プロセスに取り入れた,htl適応における公平性を考慮したシーケンシャル決定アルゴリズムfairoを提案する。
特にfairoは、options reinforcement learningフレームワークを利用して、この複雑なフェアネスタスクを個々の人間の好みに基づいた適応型サブタスクに分解する。
我々は、共有適応決定問題を持つ3種類のHITLアプリケーション設定に一般化するためにFAIROを設計する。
さらに、公正なポリシーがアプリケーションのユーティリティと矛盾することがあることも認識しています。
この課題に対処するため、我々はFAIROでフェアネスユーティリティトレードオフを提供し、システム設計者は特定のアプリケーション要件に基づいてフェアネスとユーティリティの目標をバランスさせることができる。
3つのHITLアプリケーションに対するFAIROの広範囲な評価は、その一般化性と、人間の多様性を考慮しつつ公正性を促進する効果を示す。
平均すると、FAIROは3つのアプリケーション全体にわたる他の方法と比較して35.36%改善できる。
関連論文リスト
- The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Fairness in Algorithmic Recourse Through the Lens of Substantive
Equality of Opportunity [15.78130132380848]
アルゴリズムによる会話は、AIシステムとのインタラクションにおいて人に対してエージェンシーを与える手段として注目を集めている。
近年の研究では、個人の初期状況の違いにより、会話自体が不公平である可能性があることが示されている。
個人が行動するのに時間がかかるほど、設定が変更される可能性があるからだ。
論文 参考訳(メタデータ) (2024-01-29T11:55:45Z) - "One-Size-Fits-All"? Examining Expectations around What Constitute "Fair" or "Good" NLG System Behaviors [57.63649797577999]
NLGシステム入力において、異なる種類のアイデンティティ関連言語特徴(名前、役割、場所、方言、スタイル)を摂動するケーススタディを行う。
適応の動機には、社会的規範、文化的相違、特徴特化情報、宿泊が含まれる。
対照的に、不変性のモチベーションには、規範主義を支持する視点、NLGシステムが適切に行うのが不必要または困難であると見なす視点、偽の仮定に注意を払っている視点が含まれる。
論文 参考訳(メタデータ) (2023-10-23T23:00:34Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Addressing Fairness, Bias and Class Imbalance in Machine Learning: the
FBI-loss [11.291571222801027]
公正性・バイアス・不均衡に関する問題に対処する統合的損失補正(FBI-loss)を提案する。
提案手法の補正能力は実世界の3つのベンチマークで評価される。
論文 参考訳(メタデータ) (2021-05-13T15:01:14Z) - FaiR-IoT: Fairness-aware Human-in-the-Loop Reinforcement Learning for
Harnessing Human Variability in Personalized IoT [0.0]
FaiR-IoTは、適応性と公平性を意識したヒューマンインザループIoTアプリケーションのための強化学習ベースのフレームワークです。
提案手法は, (i) 人型運転支援システム, (ii) 人型運転支援システムの2つの応用について検証した。
これらの2つのアプリケーションで得られた結果は、FaiR-IoTの一般性とパーソナライズされたエクスペリエンスを提供する能力を評価します。
論文 参考訳(メタデータ) (2021-03-30T02:30:25Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。