論文の概要: Value Preferences Estimation and Disambiguation in Hybrid Participatory Systems
- arxiv url: http://arxiv.org/abs/2402.16751v2
- Date: Tue, 29 Oct 2024 09:25:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 02:59:56.049258
- Title: Value Preferences Estimation and Disambiguation in Hybrid Participatory Systems
- Title(参考訳): ハイブリッド参加システムにおける価値推定と曖昧さ
- Authors: Enrico Liscio, Luciano C. Siebert, Catholijn M. Jonker, Pradeep K. Murukannaiah,
- Abstract要約: 参加者が選択を行い、その選択に対するモチベーションを提供するハイブリッド参加システムを構想する。
参加者の選択とモチベーションの衝突を検出する状況に焦点を当てる。
本研究では,検出された不整合に対処しながら,参加者と対話して値の選好を推定する手法を提案する。
- 参考スコア(独自算出の注目度): 3.7846812749505134
- License:
- Abstract: Understanding citizens' values in participatory systems is crucial for citizen-centric policy-making. We envision a hybrid participatory system where participants make choices and provide motivations for those choices, and AI agents estimate their value preferences by interacting with them. We focus on situations where a conflict is detected between participants' choices and motivations, and propose methods for estimating value preferences while addressing detected inconsistencies by interacting with the participants. We operationalize the philosophical stance that ``valuing is deliberatively consequential." That is, if a participant's choice is based on a deliberation of value preferences, the value preferences can be observed in the motivation the participant provides for the choice. Thus, we propose and compare value preferences estimation methods that prioritize the values estimated from motivations over the values estimated from choices alone. Then, we introduce a disambiguation strategy that combines Natural Language Processing and Active Learning to address the detected inconsistencies between choices and motivations. We evaluate the proposed methods on a dataset of a large-scale survey on energy transition. The results show that explicitly addressing inconsistencies between choices and motivations improves the estimation of an individual's value preferences. The disambiguation strategy does not show substantial improvements when compared to similar baselines -- however, we discuss how the novelty of the approach can open new research avenues and propose improvements to address the current limitations.
- Abstract(参考訳): 参加型システムにおける市民の価値を理解することは、市民中心の政策作成に不可欠である。
我々は、参加者が選択し、モチベーションを提供するハイブリッド参加システムを構想し、AIエージェントは、それらと対話することで価値の選好を見積もる。
本研究では,参加者の選択とモチベーションの対立が検出される状況に着目し,参加者との対話によって検出された矛盾に対処しながら,価値選好を推定する方法を提案する。
我々は,「評価は熟考的に適切である」という哲学的スタンスを運用する。
「つまり、参加者の選択が価値選好の熟考に基づいている場合、その参加者が選択に対して与えるモチベーションの中で価値選好が観察される。」
そこで本稿では,選択のみから見積もった値よりもモチベーションから見積もられた値を優先する評価手法を提案し,比較する。
そこで我々は,自然言語処理とアクティブラーニングを組み合わせて,選択とモチベーションの不整合に対処するあいまいな戦略を導入する。
エネルギー遷移に関する大規模調査のデータセットを用いて,提案手法の評価を行った。
その結果,選択とモチベーションの不整合に明示的に対処することで,個人の価値嗜好の推定が向上することが示唆された。
しかし、このアプローチの新規性が新たな研究の道を開いたり、現在の限界に対処するための改善を提案したりする方法について論じる。
関連論文リスト
- Diverging Preferences: When do Annotators Disagree and do Models Know? [92.24651142187989]
我々は,4つのハイレベルクラスにまたがる10のカテゴリにまたがる相違点の分類法を開発した。
意見の相違の大部分は、標準的な報酬モデリングアプローチに反対している。
本研究は,選好の変化を識別し,評価とトレーニングへの影響を緩和する手法を開発する。
論文 参考訳(メタデータ) (2024-10-18T17:32:22Z) - (De)Noise: Moderating the Inconsistency Between Human Decision-Makers [15.291993233528526]
本研究では, アルゴリズムによる意思決定支援が, 不動産評価の文脈における人間の意思決定の不整合度を緩和するのに有効かどうかを検討する。
i) アルゴリズムによって選択されたペアワイド比較において, 回答者に見積をレビューするよう求めることと, (ii) 従来の機械的アドバイスを回答者に提供することは, 人間の反応に影響を与える効果的な方法であることがわかった。
論文 参考訳(メタデータ) (2024-07-15T20:24:36Z) - Be Aware of the Neighborhood Effect: Modeling Selection Bias under Interference [50.95521705711802]
従来の研究では、予測モデルの偏りのない学習を実現するために、選択バイアスに対処することに注力してきた。
本稿では、因果推論の観点から、近隣効果を干渉問題として公式に定式化する。
本稿では,近隣効果の存在下で選択バイアスに対処できる新しい理想的損失を提案する。
論文 参考訳(メタデータ) (2024-04-30T15:20:41Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Subjective-objective policy making approach: Coupling of resident-values
multiple regression analysis with value-indices, multi-agent-based simulation [0.0]
本研究では,より優れた政策を選択するために,新たな主観的・客観的政策評価手法を提案する。
提案手法は住民アンケートの結果の回帰分析に基づいて主観的対象関数を確立する。
いくつかのポリシーを比較するために新しいアプローチを使用することで、利害関係者の意志を様々な価値で具体的に表現することができる。
論文 参考訳(メタデータ) (2023-06-14T02:33:32Z) - In Search of Insights, Not Magic Bullets: Towards Demystification of the
Model Selection Dilemma in Heterogeneous Treatment Effect Estimation [92.51773744318119]
本稿では,異なるモデル選択基準の長所と短所を実験的に検討する。
選択戦略,候補推定器,比較に用いるデータの間には,複雑な相互作用があることを強調した。
論文 参考訳(メタデータ) (2023-02-06T16:55:37Z) - Inclusive Artificial Intelligence [27.09425461169165]
生成的AIを評価し比較する方法は、仮説的代表者に役立つ応答を動機付ける。
インクルーシブAIを優先する代替評価手法を提案する。
論文 参考訳(メタデータ) (2022-12-24T02:13:26Z) - Justification of Recommender Systems Results: A Service-based Approach [4.640835690336653]
本稿では,サービスモデルを用いて商品とのインタラクションのすべての段階に関するレビューから経験データを抽出する,新たな正当化手法を提案する。
ユーザスタディでは,提案手法を,推奨システムの結果の正当性を反映したベースラインと比較した。
我々のモデルは、好奇心のレベルが異なるユーザや、認知の必要度(NfC)の低いユーザによって、より高いインタフェース適合度と満足度の評価を受けた。
これらの知見は、推薦システムの結果を正当化するためのサービスモデルの導入を奨励するが、多様なインタラクションニーズに適合するパーソナライズ戦略の調査を推奨する。
論文 参考訳(メタデータ) (2022-11-07T11:08:19Z) - Models of human preference for learning reward functions [80.39289349661364]
そこで我々は,一対の軌跡区間間の人為的嗜好から報酬関数を学習する。
この仮定に欠陥があることに気付き、各セグメントの後悔が示すように、人間の嗜好をモデル化することを提案する。
提案した後悔の選好モデルは、実際の人間の選好をより良く予測し、また、これらの選好から報酬関数を学習し、より人道的な政策へと導く。
論文 参考訳(メタデータ) (2022-06-05T17:58:02Z) - Demarcating Endogenous and Exogenous Opinion Dynamics: An Experimental
Design Approach [27.975266406080152]
本稿では,実験的な設計手法に基づく教師なし分類手法のスイートを設計する。
平均推定誤差の異なる測度を最小化するイベントのサブセットを選択することを目的としている。
我々の実験は、不衛生事象や衛生事象に対する予測性能の検証から、様々な大きさの最適なサブセットを選択する効果の検証まで多岐にわたる。
論文 参考訳(メタデータ) (2021-02-11T11:38:15Z) - Inverse Active Sensing: Modeling and Understanding Timely
Decision-Making [111.07204912245841]
我々は,内因性,文脈依存型時間圧下でのエビデンスに基づく意思決定の一般的な設定のための枠組みを開発する。
意思決定戦略において、サプライズ、サスペンス、最適性の直感的な概念をモデル化する方法を実証する。
論文 参考訳(メタデータ) (2020-06-25T02:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。