論文の概要: Learning under Imitative Strategic Behavior with Unforeseeable Outcomes
- arxiv url: http://arxiv.org/abs/2405.01797v2
- Date: Tue, 29 Oct 2024 10:28:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:37:10.153577
- Title: Learning under Imitative Strategic Behavior with Unforeseeable Outcomes
- Title(参考訳): 予期せぬ成果を伴うImmitative Strategic Behaviorの学習
- Authors: Tian Xie, Zhiqun Zuo, Mohammad Mahdi Khalili, Xueru Zhang,
- Abstract要約: 個人と意思決定者間の相互作用をモデル化するStackelbergゲームを提案する。
両者の目的的差異を3つの解釈可能な項に分解できることを示す。
- 参考スコア(独自算出の注目度): 14.80947863438795
- License:
- Abstract: Machine learning systems have been widely used to make decisions about individuals who may behave strategically to receive favorable outcomes, e.g., they may genuinely improve the true labels or manipulate observable features directly to game the system without changing labels. Although both behaviors have been studied (often as two separate problems) in the literature, most works assume individuals can (i) perfectly foresee the outcomes of their behaviors when they best respond; (ii) change their features arbitrarily as long as it is affordable, and the costs they need to pay are deterministic functions of feature changes. In this paper, we consider a different setting and focus on imitative strategic behaviors with unforeseeable outcomes, i.e., individuals manipulate/improve by imitating the features of those with positive labels, but the induced feature changes are unforeseeable. We first propose a Stackelberg game to model the interplay between individuals and the decision-maker, under which we examine how the decision-maker's ability to anticipate individual behavior affects its objective function and the individual's best response. We show that the objective difference between the two can be decomposed into three interpretable terms, with each representing the decision-maker's preference for a certain behavior. By exploring the roles of each term, we theoretically illustrate how a decision-maker with adjusted preferences may simultaneously disincentivize manipulation, incentivize improvement, and promote fairness. Such theoretical results provide a guideline for decision-makers to inform better and socially responsible decisions in practice.
- Abstract(参考訳): 機械学習システムは、有利な結果を得るために戦略的に行動する個人についての意思決定に広く用いられてきた。例えば、本当のラベルを真に改善したり、ラベルを変更することなく、観測可能な機能を直接操作したりすることができる。
どちらの行動も文献で研究されているが(しばしば2つの別の問題として)、ほとんどの研究は個人を仮定できると仮定している。
一 最善を尽くすときの行動の結果を完全に予知すること。
(二)手頃な価格である限り、機能を任意に変更すること、そしてそれらが支払うコストは、機能変更の決定論的機能である。
本稿では,前向きなラベルを持つ人物の特徴を模倣して個人が操作・改善するなど,予期せぬ結果を伴う模倣的戦略行動に焦点をあてる。
まず,個人と意思決定者の相互作用をモデル化し,意思決定者の個人行動予測能力が目的機能と個人の最善反応にどのように影響するかを検討する。
両者の客観的な差異は3つの解釈可能な用語に分解でき、それぞれが特定の行動に対する意思決定者の好みを表す。
各用語の役割を探求することにより、調整された嗜好を持つ意思決定者が操作を同時に非インセンティブ化し、改善をインセンティブ化し、公平性を促進できるかを理論的に説明する。
このような理論的結果は、意思決定者が実践においてより良く社会的に責任のある決定を伝えるためのガイドラインを提供する。
関連論文リスト
- Feature Responsiveness Scores: Model-Agnostic Explanations for Recourse [7.730963708373791]
消費者保護規則は、有害な判断を受けた消費者に「原則的理由」のリストを提供することを義務付けている。
実際には、貸し手や雇用主は、特徴帰属法から上位の特徴を返却することで、主な理由を特定できる。
本研究は,標準的な帰属手法が,無言の理由を強調することによって,個人を誤解させる可能性があることを示す。
応答性に基づいて特徴をスコアリングすることで,これらの問題に対処することを提案する。
論文 参考訳(メタデータ) (2024-10-29T23:37:49Z) - Classification Under Strategic Self-Selection [13.168262355330299]
自己選択が学習に与える影響と,学習が自己選択集団の構成に及ぼす影響について検討した。
本稿では,自己選択行動下での学習を効果的に最適化できる,識別可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-23T11:37:56Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Explainability's Gain is Optimality's Loss? -- How Explanations Bias
Decision-making [0.0]
説明は、アルゴリズムと人間の意思決定者とのコミュニケーションを促進するのに役立つ。
因果モデルに関する特徴に基づく説明のセマンティクスは、意思決定者の以前の信念から漏れを引き起こす。
このような違いは、準最適かつ偏った決定結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2022-06-17T11:43:42Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Randomized Classifiers vs Human Decision-Makers: Trustworthy AI May Have
to Act Randomly and Society Seems to Accept This [0.8889304968879161]
我々は、人的決定に似て、人工エージェントの判断は必然的に道徳的な原則に根ざすべきであると感じている。
しかし、意思決定者が真に倫理的(倫理的理論に基づく)かつ公正(公平性の概念による)な決定を行うことができるのは、決定を根拠とするすべての関連する要因に関する完全な情報が意思決定時に利用可能である場合のみである。
論文 参考訳(メタデータ) (2021-11-15T05:39:02Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z) - Learning "What-if" Explanations for Sequential Decision-Making [92.8311073739295]
実世界の意思決定の解釈可能なパラメータ化を実証行動に基づいて構築することが不可欠である。
そこで我々は,「何」の結果に対する嗜好の観点から,報酬関数をモデル化し,専門家による意思決定の学習的説明を提案する。
本研究は,行動の正確かつ解釈可能な記述を回復する上で,実効的逆強化学習手法であるバッチの有効性を強調した。
論文 参考訳(メタデータ) (2020-07-02T14:24:17Z) - Causal Strategic Linear Regression [5.672132510411465]
信用スコアや学術試験のような多くの予測的な意思決定シナリオでは、意思決定者は、決定ルールを「ゲーム」するためにエージェントの正当性を説明するモデルを構築しなければならない。
私たちは、変更可能な属性の関数として、モデリングエージェントの結果の同時処理に参加します。
3つの異なる意思決定目標を最適化する意思決定ルールを学習するための効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-02-24T03:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。