論文の概要: Designing Resource Allocation Tools to Promote Fair Allocation: Do Visualization and Information Framing Matter?
- arxiv url: http://arxiv.org/abs/2409.06688v1
- Date: Tue, 10 Sep 2024 17:53:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 16:23:35.067013
- Title: Designing Resource Allocation Tools to Promote Fair Allocation: Do Visualization and Information Framing Matter?
- Title(参考訳): フェアアロケーションを促進するためのリソースアロケーションツールの設計: 可視化と情報フレームは重要か?
- Authors: Arnav Verma, Luiz Morais, Pierre Dragicevic, Fanny Chevalier,
- Abstract要約: 本研究では,対話型資源配分ツールの設計がアロケーションフェアネスの促進に役立つかどうかを検討する。
主な発見は、個々のフレームの可視化とテキストが、グループフレームの設計による不公平なアロケーションを抑える可能性があることを示唆している。
- 参考スコア(独自算出の注目度): 16.388678811746082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Studies on human decision-making focused on humanitarian aid have found that cognitive biases can hinder the fair allocation of resources. However, few HCI and Information Visualization studies have explored ways to overcome those cognitive biases. This work investigates whether the design of interactive resource allocation tools can help to promote allocation fairness. We specifically study the effect of presentation format (using text or visualization) and a specific framing strategy (showing resources allocated to groups or individuals). In our three crowdsourced experiments, we provided different tool designs to split money between two fictional programs that benefit two distinct communities. Our main finding indicates that individual-framed visualizations and text may be able to curb unfair allocations caused by group-framed designs. This work opens new perspectives that can motivate research on how interactive tools and visualizations can be engineered to combat cognitive biases that lead to inequitable decisions.
- Abstract(参考訳): 人道支援に焦点を当てた人間の意思決定に関する研究は、認知バイアスがリソースの公平な割り当てを妨げることを発見している。
しかし、認知バイアスを克服する方法を探求するHCIや情報可視化の研究はほとんどない。
本研究は,対話型資源配分ツールの設計がアロケーションフェアネスの促進に役立つかどうかを考察する。
具体的には、プレゼンテーションフォーマット(テキストや可視化)と特定のフレーミング戦略(グループや個人に割り当てられたリソース)の効果について検討する。
クラウドソースによる3つの実験では、2つの異なるコミュニティに利益をもたらす2つのフィクションプログラム間でお金を分配するさまざまなツールデザインを提供しました。
主な発見は、個々のフレームの可視化とテキストが、グループフレームの設計による不公平なアロケーションを抑える可能性があることを示唆している。
この研究は、インタラクティブなツールや視覚化がどのようにして、不平等な決定につながる認知バイアスに対処できるかの研究を動機付ける新しい視点を開く。
関連論文リスト
- Cognitive Bias in Decision-Making with LLMs [19.87475562475802]
大規模言語モデル(LLM)は、幅広い意思決定タスクをサポートするツールとして大きな可能性を秘めている。
LLMは保護されたグループに対する社会的バイアスを継承し、認知バイアスと機能的に類似している。
私たちの研究は、LLMの認知バイアスを発見し、評価し、緩和するために設計されたフレームワークであるBiasBusterを紹介します。
論文 参考訳(メタデータ) (2024-02-25T02:35:56Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Towards Fair and Explainable AI using a Human-Centered AI Approach [5.888646114353372]
分類システムと単語埋め込みにおける説明可能性と公平性の向上を目的とした5つの研究プロジェクトについて述べる。
最初のプロジェクトは、ローカルモデル説明を機械教師のインタフェースとして導入するユーティリティ/ダウンサイドについて検討する。
第二のプロジェクトは、因果性に基づくヒューマン・イン・ザ・ループ視覚ツールであるD-BIASを紹介し、データセットの社会的バイアスを特定し緩和する。
第3のプロジェクトは、グループに対するバイアスに対するトレーニング済みの静的単語埋め込みの監査を支援する、ビジュアルインタラクティブツールであるWordBiasを提示する。
4番目のプロジェクトは、ソーシャルを識別するビジュアル分析ツールDramatVis Personae
論文 参考訳(メタデータ) (2023-06-12T21:08:55Z) - Semantic Prompt for Few-Shot Image Recognition [76.68959583129335]
本稿では,数ショット学習のための新しいセマンティック・プロンプト(SP)手法を提案する。
提案手法は,1ショットの学習精度を平均3.67%向上させることにより,有望な結果が得られる。
論文 参考訳(メタデータ) (2023-03-24T16:32:19Z) - BiaScope: Visual Unfairness Diagnosis for Graph Embeddings [8.442750346008431]
本稿では,グラフ埋め込みにおけるエンドツーエンドの視覚不公平性診断を支援するインタラクティブな可視化ツールであるBiaScopeを紹介する。
これは、(すなわち、公正性に関して2つの埋め込みを視覚的に比較し、(ii)不公平に埋め込まれたノードやグラフのコミュニティを特定し、(iii)関連する埋め込みサブスペースと対応するグラフトポロジーとを対話的にリンクすることによってバイアスの源を理解することを可能にする。
論文 参考訳(メタデータ) (2022-10-12T17:12:19Z) - Visual Perturbation-aware Collaborative Learning for Overcoming the
Language Prior Problem [60.0878532426877]
本稿では,視覚的摂動校正の観点から,新しい協調学習手法を提案する。
具体的には、異なる摂動範囲で2種類のキュレートされた画像を構築するための視覚コントローラを考案する。
2つの診断VQA-CPベンチマークデータセットの実験結果は、その効果を明らかに示している。
論文 参考訳(メタデータ) (2022-07-24T23:50:52Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Learning Affordance Grounding from Exocentric Images [79.64064711636975]
Affordance Groundingは、オブジェクト内のアクション可能性領域をグラウンド(すなわちローカライズ)するタスクである。
人間は様々な外心中心の相互作用を不変の自我中心の余裕に変換する能力を持っている。
本稿では,外心的視点,すなわち,外心的対象の相互作用と自我的対象のイメージが与えられた場合の空白化課題を提案する。
論文 参考訳(メタデータ) (2022-03-18T12:29:06Z) - Projection-wise Disentangling for Fair and Interpretable Representation
Learning: Application to 3D Facial Shape Analysis [4.716274324450199]
合流バイアスは、特に臨床実践において、機械学習を実践する上で重要な問題である。
複数のバイアスに依存しない表現を学習する問題について考察する。
本稿では,ほぼすべての情報を潜在表現に保持しながらバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2021-06-25T16:09:56Z) - Self-supervised Learning from a Multi-view Perspective [121.63655399591681]
自己教師型表現はタスク関連情報を抽出し,タスク関連情報を破棄することができることを示す。
我々の理論的枠組みは、自己教師型学習目標設計のより広い空間への道を開くものである。
論文 参考訳(メタデータ) (2020-06-10T00:21:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。