論文の概要: Justifying Social-Choice Mechanism Outcome for Improving Participant
Satisfaction
- arxiv url: http://arxiv.org/abs/2205.15863v1
- Date: Tue, 24 May 2022 19:15:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-12 09:33:24.339236
- Title: Justifying Social-Choice Mechanism Outcome for Improving Participant
Satisfaction
- Title(参考訳): 参加満足度向上のための社会的選択メカニズムの正当性
- Authors: Sharadhi Alape Suryanarayana, David Sarne and Sarit Kraus
- Abstract要約: 多くの社会的選択機構において、結果として得られる選択は、一部の参加者にとって最も好まれるものではない。
このような説明を提供する自然な方法は、例えばクラウドソーシングを通じて、人々にそれを提供するように求めることである。
本稿では,望ましいメカニズム機能に基づいた説明を自動的に生成する代替手法を提案する。
- 参考スコア(独自算出の注目度): 30.996915048373562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many social-choice mechanisms the resulting choice is not the most
preferred one for some of the participants, thus the need for methods to
justify the choice made in a way that improves the acceptance and satisfaction
of said participants. One natural method for providing such explanations is to
ask people to provide them, e.g., through crowdsourcing, and choosing the most
convincing arguments among those received. In this paper we propose the use of
an alternative approach, one that automatically generates explanations based on
desirable mechanism features found in theoretical mechanism design literature.
We test the effectiveness of both of the methods through a series of extensive
experiments conducted with over 600 participants in ranked voting, a classic
social choice mechanism. The analysis of the results reveals that explanations
indeed affect both average satisfaction from and acceptance of the outcome in
such settings. In particular, explanations are shown to have a positive effect
on satisfaction and acceptance when the outcome (the winning candidate in our
case) is the least desirable choice for the participant. A comparative analysis
reveals that the automatically generated explanations result in similar levels
of satisfaction from and acceptance of an outcome as with the more costly
alternative of crowdsourced explanations, hence eliminating the need to keep
humans in the loop. Furthermore, the automatically generated explanations
significantly reduce participants' belief that a different winner should have
been elected compared to crowdsourced explanations.
- Abstract(参考訳): 多くの社会的選択メカニズムにおいて、結果として得られる選択は、一部の参加者にとって最も望ましいものではないので、その参加者の受け入れと満足度を改善する方法で選択を正当化するための方法が必要である。
このような説明を提供する自然な方法の1つは、クラウドソーシングを通じて人々に提供するように求め、最も説得力のある議論を選択することである。
本稿では,理論機構設計文献に見られる望ましいメカニズムの特徴に基づいて,説明を自動的に生成する代替手法を提案する。
従来の社会的選択機構である600名以上の投票者を対象に, 広範囲にわたる実験を行い, 両手法の有効性を検証した。
結果分析の結果, 説明は, 平均満足度と受理度の両方に有意な影響を与えていることが明らかとなった。
特に、結果(我々の場合の勝者候補)が参加者にとって最も望ましい選択である場合、説明は満足度と受容に肯定的な影響を与えることが示される。
比較分析により、自動生成された説明は、クラウドソースによる説明のよりコストのかかる代替品と同様の満足度と結果の受け入れをもたらすことが明らかとなり、それによって人間をループに留める必要がなくなる。
さらに、自動生成された説明は、クラウドソースによる説明に比べて、異なる勝者が選ばれるべきだという参加者の信念を著しく減少させる。
関連論文リスト
- Creating Healthy Friction: Determining Stakeholder Requirements of Job Recommendation Explanations [2.373992571236766]
本研究では,現実的なタスクベースの複合設計ユーザスタディを用いて,説明可能なジョブレコメンデーションシステムの評価を行う。
実際の説明を利害関係者に提供することは意思決定のスピードと正確さを著しく向上させるものではない。
論文 参考訳(メタデータ) (2024-09-24T11:03:17Z) - A First Look at Selection Bias in Preference Elicitation for Recommendation [64.44255178199846]
選好選好における選好バイアスの影響について検討した。
大きなハードルは、好みの推論インタラクションを持つ公開データセットがないことです。
本稿では,トピックに基づく選好提案プロセスのシミュレーションを提案する。
論文 参考訳(メタデータ) (2024-05-01T14:56:56Z) - Be Aware of the Neighborhood Effect: Modeling Selection Bias under Interference [50.95521705711802]
従来の研究では、予測モデルの偏りのない学習を実現するために、選択バイアスに対処することに注力してきた。
本稿では、因果推論の観点から、近隣効果を干渉問題として公式に定式化する。
本稿では,近隣効果の存在下で選択バイアスに対処できる新しい理想的損失を提案する。
論文 参考訳(メタデータ) (2024-04-30T15:20:41Z) - Provable Benefits of Policy Learning from Human Preferences in
Contextual Bandit Problems [82.92678837778358]
嗜好に基づく手法は、InstructGPTのような経験的応用でかなりの成功を収めている。
フィードバックモデリングにおける人間のバイアスと不確実性がこれらのアプローチの理論的保証にどのように影響するかを示す。
論文 参考訳(メタデータ) (2023-07-24T17:50:24Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - In Search of Insights, Not Magic Bullets: Towards Demystification of the
Model Selection Dilemma in Heterogeneous Treatment Effect Estimation [92.51773744318119]
本稿では,異なるモデル選択基準の長所と短所を実験的に検討する。
選択戦略,候補推定器,比較に用いるデータの間には,複雑な相互作用があることを強調した。
論文 参考訳(メタデータ) (2023-02-06T16:55:37Z) - Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - Homophily and Incentive Effects in Use of Algorithms [17.55279695774825]
本稿では,2つの要因がAIによる意思決定に与える影響を評価するために,クラウドソーシング・ヴィグネット研究を提案する。
まず、ホモフィリー(homophily)を検証します。
次に、インセンティブについて考えます -- ハイブリッドな意思決定環境に(既知の)コスト構造を組み込むには、どうすればよいのでしょう?
論文 参考訳(メタデータ) (2022-05-19T17:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。