論文の概要: Improving Fairness in Adaptive Social Exergames via Shapley Bandits
- arxiv url: http://arxiv.org/abs/2302.09298v1
- Date: Sat, 18 Feb 2023 11:34:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 19:21:59.990567
- Title: Improving Fairness in Adaptive Social Exergames via Shapley Bandits
- Title(参考訳): シェープリーバンドによる適応型ソーシャルエクササイズにおけるフェアネスの改善
- Authors: Robert C. Gray, Jennifer Villareale, Thomas B. Fox, Diane H. Dallal,
Santiago Onta\~n\'on, Danielle Arigo, Shahin Jabbari, Jichen Zhu
- Abstract要約: フェアネスを意識したマルチアームバンディットShapley Banditsを提案する。
グループ全体のアウトプットではなく、プレーヤ全体の参加と介入の定着を高めるために、Shapley Valueを使用する。
以上の結果から,我々のShapley BanditsはGreedy Bandit Problemを効果的に媒介し,参加者間のユーザ維持とモチベーションの向上を実現していることがわかった。
- 参考スコア(独自算出の注目度): 7.215807283769683
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Algorithmic fairness is an essential requirement as AI becomes integrated in
society. In the case of social applications where AI distributes resources,
algorithms often must make decisions that will benefit a subset of users,
sometimes repeatedly or exclusively, while attempting to maximize specific
outcomes. How should we design such systems to serve users more fairly? This
paper explores this question in the case where a group of users works toward a
shared goal in a social exergame called Step Heroes. We identify adverse
outcomes in traditional multi-armed bandits (MABs) and formalize the Greedy
Bandit Problem. We then propose a solution based on a new type of
fairness-aware multi-armed bandit, Shapley Bandits. It uses the Shapley Value
for increasing overall player participation and intervention adherence rather
than the maximization of total group output, which is traditionally achieved by
favoring only high-performing participants. We evaluate our approach via a user
study (n=46). Our results indicate that our Shapley Bandits effectively
mediates the Greedy Bandit Problem and achieves better user retention and
motivation across the participants.
- Abstract(参考訳): AIが社会に統合されるにつれて、アルゴリズムの公正性は必須の要件である。
AIがリソースを配布するソーシャルアプリケーションの場合、アルゴリズムはしばしば、特定の結果の最大化を試みながら、ユーザーのサブセットに利益をもたらす決定をしなければならない。
ユーザに対して適切なサービスを提供するようなシステムを設計するにはどうすればよいのか?
本稿では,step heroesと呼ばれるソーシャルエクセルゲームにおいて,ユーザの集団が共通の目標に向かって作業する場合に,この疑問を考察する。
従来の多腕バンディット (mabs) における副作用を同定し, 欲欲バンディット問題を定式化する。
そこで我々は,新たなフェアネス対応マルチアームバンディットであるShapley Banditsを提案する。
グループアウトプットの最大化よりも、プレイヤ全体の参加と介入を増加させるためにシャプリー値を使用するが、これは伝統的にハイパフォーマンスな参加者のみを優先することで達成されている。
本手法をユーザ・スタディ(n=46)を用いて評価した。
以上の結果から,我々のShapley BanditsはGreedy Bandit Problemを効果的に仲介し,参加者間のユーザ維持とモチベーションの向上を実現している。
関連論文リスト
- Neural Dueling Bandits [58.90189511247936]
ニューラルネットワークを用いて、予め選択した腕の好みフィードバックを用いて報酬関数を推定する。
次に、理論結果を二項フィードバックによる文脈的帯域幅問題に拡張し、それはそれ自体は自明な寄与ではない。
論文 参考訳(メタデータ) (2024-07-24T09:23:22Z) - $\alpha$-Fair Contextual Bandits [10.74025233418392]
コンテキストバンディットアルゴリズムは、レコメンデータシステム、臨床試験、最適なポートフォリオ選択など、多くのアプリケーションの中核にある。
文脈的バンディット文学で研究される最も一般的な問題の1つは、各ラウンドにおける報酬の合計を最大化することである。
本稿では,大域的な$alpha$-fairtextual Con Bandits問題を考える。
論文 参考訳(メタデータ) (2023-10-22T03:42:59Z) - Equitable Restless Multi-Armed Bandits: A General Framework Inspired By
Digital Health [23.762981395335217]
Restless Multi-armed Bandits (RMAB) は、限られたリソースを持つシーケンシャルな設定でアルゴリズムによる意思決定を行う一般的なフレームワークである。
RMABは、公衆衛生、治療スケジュール、密猟、そしてこの仕事の動機であるデジタル健康などの繊細な決定にますます使われています。
我々は、RMABの公平な目標を初めて検討し、公平性文学、ミニマックス報酬、最大ナッシュ福祉の2つの目標について考察する。
我々は,前者に対する水充填アルゴリズムと,異なる群の大きさのバランスをとるための理論的動機付けされたニュアンスをもつグリーディアルゴリズムをそれぞれ解くための効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-17T13:00:27Z) - Bandit Social Learning: Exploration under Myopic Behavior [58.75758600464338]
オンラインプラットフォーム上でのレビューによって動機付けられた社会学習のダイナミクスについて検討する。
エージェントはまとめて単純なマルチアームのバンディットプロトコルに従うが、各エージェントは探索を伴わずにミオプティカルに振る舞う。
このような振る舞いに対して,スターク学習の失敗を導出し,好意的な結果を提供する。
論文 参考訳(メタデータ) (2023-02-15T01:57:57Z) - Incentivizing Combinatorial Bandit Exploration [87.08827496301839]
自己関心のあるユーザに対してレコメンデーションシステムでアクションを推奨するバンディットアルゴリズムを考える。
ユーザーは他のアクションを自由に選択でき、アルゴリズムの推奨に従うためにインセンティブを得る必要がある。
ユーザは悪用を好むが、アルゴリズムは、前のユーザから収集した情報を活用することで、探索にインセンティブを与えることができる。
論文 参考訳(メタデータ) (2022-06-01T13:46:25Z) - Learning Equilibria in Matching Markets from Bandit Feedback [139.29934476625488]
不確実性の下で安定した市場成果を学習するためのフレームワークとアルゴリズムを開発する。
私たちの研究は、大規模なデータ駆動の市場において、いつ、どのように安定したマッチングが生じるかを明らかにするための第一歩を踏み出します。
論文 参考訳(メタデータ) (2021-08-19T17:59:28Z) - Adaptive Algorithms for Multi-armed Bandit with Composite and Anonymous
Feedback [32.62857394584907]
複合および匿名フィードバックによるマルチアームバンディット(MAB)問題を研究する。
本稿では,逆の場合と非逆の場合の適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-13T12:25:41Z) - Bandits Under The Influence (Extended Version) [14.829802725813868]
線形多武装バンディット文学に根ざしたオンラインレコメンデーションアルゴリズムを提案する。
我々のバンディットアルゴリズムは、ユーザーの興味が社会的影響の下で進化するレコメンデーションシナリオに正確に適合している。
論文 参考訳(メタデータ) (2020-09-21T19:02:00Z) - Partial Bandit and Semi-Bandit: Making the Most Out of Scarce Users'
Feedback [62.997667081978825]
本稿では,ユーザのフィードバックを考慮し,3つの戦略を用いて評価する手法を提案する。
ユーザからのフィードバックが制限されているにも関わらず(全体の20%以下)、我々の手法は最先端のアプローチと同じような結果が得られる。
論文 参考訳(メタデータ) (2020-09-16T07:32:51Z) - Competing Bandits: The Perils of Exploration Under Competition [99.68537519404727]
オンラインプラットフォーム上での探索と競争の相互作用について検討する。
私たちは、スタークコンペティションが企業に対して、低福祉につながる「欲張り」バンディットアルゴリズムにコミットするよう促すことに気付きました。
競争を弱めるための2つのチャンネルについて検討する。
論文 参考訳(メタデータ) (2020-07-20T14:19:08Z) - Selfish Robustness and Equilibria in Multi-Player Bandits [25.67398941667429]
ゲームでは、複数のプレイヤーが同時に腕を引いて、同じ腕を同時に引っ張る場合、0の報酬で衝突する。
プレイヤーが集団報酬を最大化する協力的ケースは、主に考慮されてきたが、悪意のあるプレイヤーにとっては非常に重要かつ困難な問題である。
代わりに、社会的福祉を犠牲にして、個人の報酬を最大化するインセンティブを持つより自然な利己的なプレイヤーについて検討する。
論文 参考訳(メタデータ) (2020-02-04T09:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。