論文の概要: How Platform-User Power Relations Shape Algorithmic Accountability: A
Case Study of Instant Loan Platforms and Financially Stressed Users in India
- arxiv url: http://arxiv.org/abs/2205.05661v1
- Date: Wed, 11 May 2022 17:43:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 18:42:11.303721
- Title: How Platform-User Power Relations Shape Algorithmic Accountability: A
Case Study of Instant Loan Platforms and Financially Stressed Users in India
- Title(参考訳): プラットフォーム・ユーザ関係がアルゴリズム的説明責任をどのように形作るか--インドにおけるインスタントローンプラットフォームと金融ストレスユーザーを事例として
- Authors: Divya Ramesh, Vaishnav Kameswaran, Ding Wang, Nithya Sambasivan
- Abstract要約: インドにおけるインスタントローンプラットフォームの利用者29名の質的研究について報告する。
即時融資の「報奨」に対して,利用者が過度に不信感を感じていることが判明した。
ローンプラットフォームに激怒する代わりに、ユーザはネガティブな経験に対して責任を負った。
- 参考スコア(独自算出の注目度): 16.415169392641026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accountability, a requisite for responsible AI, can be facilitated through
transparency mechanisms such as audits and explainability. However, prior work
suggests that the success of these mechanisms may be limited to Global North
contexts; understanding the limitations of current interventions in varied
socio-political conditions is crucial to help policymakers facilitate wider
accountability. To do so, we examined the mediation of accountability in the
existing interactions between vulnerable users and a 'high-risk' AI system in a
Global South setting. We report on a qualitative study with 29
financially-stressed users of instant loan platforms in India. We found that
users experienced intense feelings of indebtedness for the 'boon' of instant
loans, and perceived huge obligations towards loan platforms. Users fulfilled
obligations by accepting harsh terms and conditions, over-sharing sensitive
data, and paying high fees to unknown and unverified lenders. Users
demonstrated a dependence on loan platforms by persisting with such behaviors
despite risks of harms such as abuse, recurring debts, discrimination, privacy
harms, and self-harm to them. Instead of being enraged with loan platforms,
users assumed responsibility for their negative experiences, thus releasing the
high-powered loan platforms from accountability obligations. We argue that
accountability is shaped by platform-user power relations, and urge caution to
policymakers in adopting a purely technical approach to fostering algorithmic
accountability. Instead, we call for situated interventions that enhance agency
of users, enable meaningful transparency, reconfigure designer-user relations,
and prompt a critical reflection in practitioners towards wider accountability.
We conclude with implications for responsibly deploying AI in FinTech
applications in India and beyond.
- Abstract(参考訳): 責任あるAIに必要な説明責任は、監査や説明責任といった透明性メカニズムを通じて促進される。
しかしながら、以前の研究は、これらのメカニズムの成功はグローバル・ノースの文脈に限られている可能性を示唆しており、様々な社会・政治条件における現在の介入の限界を理解することは、政策立案者がより広い説明責任を促進するのに不可欠である。
そこで我々は,グローバル・サウス・セッティングにおける,脆弱なユーザと高リスクなAIシステムとの間の既存のインタラクションにおける説明責任の仲介について検討した。
インドにおけるインスタントローンプラットフォームの利用者29名の質的研究について報告する。
その結果,インスタントローンの「ブーム」に対して,利用者は過酷な感情を抱いており,ローンプラットフォームに対する大きな義務を感じていた。
ユーザーは厳しい条件や条件を受け入れ、機密データを過度に共有し、未知の銀行に高い手数料を支払うことで義務を果たす。
ユーザは、虐待、繰り返し負債、差別、プライバシの害、自己損などの危害のリスクにもかかわらず、こうした行為を継続することで、ローンプラットフォームへの依存を示しました。
ユーザはローンプラットフォームに激怒する代わりに、ネガティブな経験の責任を負い、高いパワーを持つローンプラットフォームを説明責任から解放しました。
我々は、説明責任はプラットフォームとユーザ間の力関係によって形成されており、アルゴリズムによる説明責任の育成に純粋に技術的アプローチを採用することを政策立案者に警告する。
代わりに、ユーザエージェンシーを強化し、意味のある透明性を実現し、デザイナとユーザの関係を再構築し、より広い説明責任に対する実践者の批判的なリフレクションを促すような、配置された介入を要求します。
私たちは、インドのFinTechアプリケーションにAIを責任を持ってデプロイすることの意味で締めくくります。
- 全文 参考訳へのリンク
関連論文リスト
- Accountability in an Algorithmic Society: Relationality, Responsibility,
and Robustness in Machine Learning [4.958893997693021]
1996年、哲学者ヘレン・ニッセンバウム(Helen Nissenbaum)は社会における説明責任の侵食に関する宣言を発した。
我々は、コンピュータ化が提示した説明責任に対する4種類の障壁を再考する。
我々は、責任ある当事者が責任を負うための道徳的でリレーショナルな枠組みを構築し、正当化する方法を楽しみにしています。
論文 参考訳(メタデータ) (2022-02-10T21:39:02Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - Building a Foundation for Data-Driven, Interpretable, and Robust Policy
Design using the AI Economist [67.08543240320756]
AIエコノミストフレームワークは,2段階強化学習とデータ駆動型シミュレーションを用いて,効果的な,柔軟な,解釈可能なポリシー設計を可能にする。
RLを用いて訓練されたログリニア政策は、過去の結果と比較して、公衆衛生と経済の両面から社会福祉を著しく改善することがわかった。
論文 参考訳(メタデータ) (2021-08-06T01:30:41Z) - Relational Graph Neural Networks for Fraud Detection in a Super-App
environment [53.561797148529664]
スーパーアプリケーションの金融サービスにおける不正行為防止のための関係グラフ畳み込みネットワーク手法の枠組みを提案する。
我々は,グラフニューラルネットワークの解釈可能性アルゴリズムを用いて,ユーザの分類タスクに対する最も重要な関係を判定する。
以上の結果から,Super-Appの代替データと高接続性で得られるインタラクションを利用するモデルには,付加価値があることが示唆された。
論文 参考訳(メタデータ) (2021-07-29T00:02:06Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Explaining Credit Risk Scoring through Feature Contribution Alignment
with Expert Risk Analysts [1.7778609937758323]
私たちは企業の信用スコアにフォーカスし、さまざまな機械学習モデルをベンチマークします。
目標は、企業が一定の期間内に金融問題を経験しているかどうかを予測するモデルを構築することです。
我々は、信用リスクの専門家とモデル機能属性説明との相違を強調した専門家による機能関連スコアを提供することで、光を当てる。
論文 参考訳(メタデータ) (2021-03-15T12:59:15Z) - Explainable AI in Credit Risk Management [0.0]
機械学習(ML)に基づく信用スコアリングモデルに対して,局所解釈モデル予測説明(LIME)とSHapley Additive exPlanations(SHAP)という2つの高度な説明可能性手法を実装した。
具体的には、LIMEを使用してインスタンスをローカルとSHAPで説明し、ローカルとグローバルの両方で説明します。
SHAP値を用いて生成されたグラフを説明するために利用可能なさまざまなカーネルを使用して、結果を詳細に議論し、複数の比較シナリオを提示する。
論文 参考訳(メタデータ) (2021-03-01T12:23:20Z) - Supporting Financial Inclusion with Graph Machine Learning and Super-App
Alternative Data [63.942632088208505]
スーパーアプリは、ユーザーとコマースの相互作用についての考え方を変えました。
本稿では,スーパーアプリ内のユーザ間のインタラクションの違いが,借り手行動を予測する新たな情報源となるかを検討する。
論文 参考訳(メタデータ) (2021-02-19T15:13:06Z) - Explanations of Machine Learning predictions: a mandatory step for its
application to Operational Processes [61.20223338508952]
信用リスクモデリングは重要な役割を果たす。
近年,機械学習や深層学習の手法が採用されている。
この分野における説明可能性問題に LIME 手法を適用することを提案する。
論文 参考訳(メタデータ) (2020-12-30T10:27:59Z) - Online Learning Demands in Max-min Fairness [91.37280766977923]
本稿では,複数のユーザ間の希少リソースの割り当て機構について,効率的で公平で戦略に準拠した方法で記述する。
このメカニズムは複数のラウンドで繰り返され、各ラウンドでユーザの要求が変更される可能性がある。
各ラウンドの最後には、ユーザは受け取ったアロケーションに関するフィードバックを提供し、そのメカニズムが時間の経過とともにユーザの好みを学習することを可能にする。
論文 参考訳(メタデータ) (2020-12-15T22:15:20Z) - Explainable AI for Interpretable Credit Scoring [0.8379286663107844]
クレジットスコアリングは、金融の専門家がローン申請を受諾するかどうかについてより良い判断を下すのに役立つ。
アルゴリズムによる決定が一貫性のあるものであることを保証するため、規則はモデル解釈可能性の必要性を追加している。
正確かつ解釈可能な信用スコアモデルを提案する。
論文 参考訳(メタデータ) (2020-12-03T18:44:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。