論文の概要: Setting the Right Expectations: Algorithmic Recourse Over Time
- arxiv url: http://arxiv.org/abs/2309.06969v1
- Date: Wed, 13 Sep 2023 14:04:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 13:58:51.533838
- Title: Setting the Right Expectations: Algorithmic Recourse Over Time
- Title(参考訳): 正しい期待を設定する: アルゴリズムによる時間経過
- Authors: Joao Fonseca, Andrew Bell, Carlo Abrate, Francesco Bonchi, Julia
Stoyanovich
- Abstract要約: 本稿では,連続的に変化する環境がアルゴリズムの会話に与える影響を研究するためのエージェント・ベース・シミュレーション・フレームワークを提案する。
この結果から,特定のパラメータ化の小さなセットだけが,時間とともにエージェントに信頼性のあるアルゴリズム的リコースをもたらすことが明らかとなった。
- 参考スコア(独自算出の注目度): 16.930905275894183
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Algorithmic systems are often called upon to assist in high-stakes decision
making. In light of this, algorithmic recourse, the principle wherein
individuals should be able to take action against an undesirable outcome made
by an algorithmic system, is receiving growing attention. The bulk of the
literature on algorithmic recourse to-date focuses primarily on how to provide
recourse to a single individual, overlooking a critical element: the effects of
a continuously changing context. Disregarding these effects on recourse is a
significant oversight, since, in almost all cases, recourse consists of an
individual making a first, unfavorable attempt, and then being given an
opportunity to make one or several attempts at a later date - when the context
might have changed. This can create false expectations, as initial recourse
recommendations may become less reliable over time due to model drift and
competition for access to the favorable outcome between individuals.
In this work we propose an agent-based simulation framework for studying the
effects of a continuously changing environment on algorithmic recourse. In
particular, we identify two main effects that can alter the reliability of
recourse for individuals represented by the agents: (1) competition with other
agents acting upon recourse, and (2) competition with new agents entering the
environment. Our findings highlight that only a small set of specific
parameterizations result in algorithmic recourse that is reliable for agents
over time. Consequently, we argue that substantial additional work is needed to
understand recourse reliability over time, and to develop recourse methods that
reward agents' effort.
- Abstract(参考訳): アルゴリズムシステムは、しばしば高い意思決定を支援するために呼ばれる。
これを踏まえて、アルゴリズムリコースは、個人がアルゴリズムシステムによって望ましくない結果に対して行動できることを原則として、注目を集めている。
アルゴリズム的リコースに関する文献の大部分は、継続的に変化するコンテキストの影響を批判的な要素を見下ろして、単一の個人にリコースを提供する方法に重点を置いている。
ほとんどすべてのケースにおいて、リコースは第一に、好ましくない試みをする個人で構成され、その後、状況が変わった場合、後日、一つまたは複数の試みを行う機会が与えられるため、これらの影響をリコースに無視することは重大な監視である。
モデルドリフトや個人間の望ましい結果への競争によって、最初のリコースの推奨は時間とともに信頼性が低下する可能性があるため、これは誤った期待を生み出す可能性がある。
本研究では,連続的に変化する環境がアルゴリズムの会話に与える影響を研究するためのエージェントベースシミュレーションフレームワークを提案する。
特に, エージェントが代表する個人に対するリコースの信頼性を変化させる効果として, (1) リコースに行動する他のエージェントとの競争, (2) 環境に参入する新しいエージェントとの競争の2つを見出した。
この結果から,特定のパラメータ化の小さなセットだけが,時間とともにエージェントに信頼性のあるアルゴリズム的リコースをもたらすことが明らかとなった。
その結果、時間とともにリコースの信頼性を理解し、エージェントの努力に報いるリコース手法を開発するために、かなりの追加作業が必要となる。
関連論文リスト
- Fairness in Algorithmic Recourse Through the Lens of Substantive
Equality of Opportunity [15.78130132380848]
アルゴリズムによる会話は、AIシステムとのインタラクションにおいて人に対してエージェンシーを与える手段として注目を集めている。
近年の研究では、個人の初期状況の違いにより、会話自体が不公平である可能性があることが示されている。
個人が行動するのに時間がかかるほど、設定が変更される可能性があるからだ。
論文 参考訳(メタデータ) (2024-01-29T11:55:45Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Robustness Implies Fairness in Casual Algorithmic Recourse [13.86376549140248]
アルゴリズムリコースは、決定が重大な結果をもたらす状況において、ブラックボックス決定プロセスの内部動作を明らかにすることを目的としている。
効果的な治療を確実にするためには、提案された介入は低コストであるだけでなく、堅牢で公平でなければならない。
本研究では,因果的アルゴリズムによる会話における個人的公正性と敵対的ロバスト性の概念について検討する。
論文 参考訳(メタデータ) (2023-02-07T13:40:56Z) - Formalizing the Problem of Side Effect Regularization [81.97441214404247]
本稿では,補助ゲームフレームワークを用いたサイドエフェクト正規化のための公式な基準を提案する。
これらのゲームでは、エージェントは部分的に観測可能なマルコフ決定プロセスを解決する。
このPOMDPは、エージェントが将来的なタスクをこなす能力と、プロキシ報酬を交換することで解決されることを示す。
論文 参考訳(メタデータ) (2022-06-23T16:36:13Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Probabilistically Robust Recourse: Navigating the Trade-offs between
Costs and Robustness in Algorithmic Recourse [34.39887495671287]
本稿では,達成された(反感)と所望のリコース無効率とのギャップを同時に最小化する目的関数を提案する。
我々は,任意のインスタンスに対応するリコース無効化率を特徴付けるために,新しい理論的結果を開発した。
複数の実世界のデータセットを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-13T21:39:24Z) - Stateful Strategic Regression [20.7177095411398]
結果のゲームにおけるスタックルバーグ均衡を記述し、計算のための新しいアルゴリズムを提供する。
分析の結果,ゲームの結果を形作る上でのマルチインタラクションの役割について,いくつかの興味深い知見が得られた。
最も重要なことは、処理時に複数ラウンドの相互作用を行うことで、主成分は、目的の方向に努力を蓄積するために、エージェントにインセンティブを与えるのにより効果的であることを示すことである。
論文 参考訳(メタデータ) (2021-06-07T17:46:29Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z) - Sequential Transfer in Reinforcement Learning with a Generative Model [48.40219742217783]
本稿では,従来の課題から知識を移譲することで,新たな課題を学習する際のサンプルの複雑さを軽減する方法について述べる。
この種の事前知識を使用することのメリットを明確に示すために,PAC境界のサンプル複雑性を導出する。
簡単なシミュレートされた領域における理論的な発見を実証的に検証する。
論文 参考訳(メタデータ) (2020-07-01T19:53:35Z) - Public Bayesian Persuasion: Being Almost Optimal and Almost Persuasive [57.47546090379434]
i) 任意の状態空間, (ii) 任意の行動空間, (iii) 任意の送信者のユーティリティ関数を用いて, 一般の状況下での公衆の説得問題を考察する。
任意の公的な説得問題に対して準多項式時間ビクテリア近似アルゴリズムを提案し、特定の設定でQPTASを出力する。
論文 参考訳(メタデータ) (2020-02-12T18:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。