論文の概要: How Platform-User Power Relations Shape Algorithmic Accountability: A
Case Study of Instant Loan Platforms and Financially Stressed Users in India
- arxiv url: http://arxiv.org/abs/2205.05661v1
- Date: Wed, 11 May 2022 17:43:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 18:42:11.303721
- Title: How Platform-User Power Relations Shape Algorithmic Accountability: A
Case Study of Instant Loan Platforms and Financially Stressed Users in India
- Title(参考訳): プラットフォーム・ユーザ関係がアルゴリズム的説明責任をどのように形作るか--インドにおけるインスタントローンプラットフォームと金融ストレスユーザーを事例として
- Authors: Divya Ramesh, Vaishnav Kameswaran, Ding Wang, Nithya Sambasivan
- Abstract要約: インドにおけるインスタントローンプラットフォームの利用者29名の質的研究について報告する。
即時融資の「報奨」に対して,利用者が過度に不信感を感じていることが判明した。
ローンプラットフォームに激怒する代わりに、ユーザはネガティブな経験に対して責任を負った。
- 参考スコア(独自算出の注目度): 16.415169392641026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accountability, a requisite for responsible AI, can be facilitated through
transparency mechanisms such as audits and explainability. However, prior work
suggests that the success of these mechanisms may be limited to Global North
contexts; understanding the limitations of current interventions in varied
socio-political conditions is crucial to help policymakers facilitate wider
accountability. To do so, we examined the mediation of accountability in the
existing interactions between vulnerable users and a 'high-risk' AI system in a
Global South setting. We report on a qualitative study with 29
financially-stressed users of instant loan platforms in India. We found that
users experienced intense feelings of indebtedness for the 'boon' of instant
loans, and perceived huge obligations towards loan platforms. Users fulfilled
obligations by accepting harsh terms and conditions, over-sharing sensitive
data, and paying high fees to unknown and unverified lenders. Users
demonstrated a dependence on loan platforms by persisting with such behaviors
despite risks of harms such as abuse, recurring debts, discrimination, privacy
harms, and self-harm to them. Instead of being enraged with loan platforms,
users assumed responsibility for their negative experiences, thus releasing the
high-powered loan platforms from accountability obligations. We argue that
accountability is shaped by platform-user power relations, and urge caution to
policymakers in adopting a purely technical approach to fostering algorithmic
accountability. Instead, we call for situated interventions that enhance agency
of users, enable meaningful transparency, reconfigure designer-user relations,
and prompt a critical reflection in practitioners towards wider accountability.
We conclude with implications for responsibly deploying AI in FinTech
applications in India and beyond.
- Abstract(参考訳): 責任あるAIに必要な説明責任は、監査や説明責任といった透明性メカニズムを通じて促進される。
しかしながら、以前の研究は、これらのメカニズムの成功はグローバル・ノースの文脈に限られている可能性を示唆しており、様々な社会・政治条件における現在の介入の限界を理解することは、政策立案者がより広い説明責任を促進するのに不可欠である。
そこで我々は,グローバル・サウス・セッティングにおける,脆弱なユーザと高リスクなAIシステムとの間の既存のインタラクションにおける説明責任の仲介について検討した。
インドにおけるインスタントローンプラットフォームの利用者29名の質的研究について報告する。
その結果,インスタントローンの「ブーム」に対して,利用者は過酷な感情を抱いており,ローンプラットフォームに対する大きな義務を感じていた。
ユーザーは厳しい条件や条件を受け入れ、機密データを過度に共有し、未知の銀行に高い手数料を支払うことで義務を果たす。
ユーザは、虐待、繰り返し負債、差別、プライバシの害、自己損などの危害のリスクにもかかわらず、こうした行為を継続することで、ローンプラットフォームへの依存を示しました。
ユーザはローンプラットフォームに激怒する代わりに、ネガティブな経験の責任を負い、高いパワーを持つローンプラットフォームを説明責任から解放しました。
我々は、説明責任はプラットフォームとユーザ間の力関係によって形成されており、アルゴリズムによる説明責任の育成に純粋に技術的アプローチを採用することを政策立案者に警告する。
代わりに、ユーザエージェンシーを強化し、意味のある透明性を実現し、デザイナとユーザの関係を再構築し、より広い説明責任に対する実践者の批判的なリフレクションを促すような、配置された介入を要求します。
私たちは、インドのFinTechアプリケーションにAIを責任を持ってデプロイすることの意味で締めくくります。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Best Practices for Responsible Machine Learning in Credit Scoring [0.03984353141309896]
本チュートリアルでは、クレジットスコアリングにおいて、責任ある機械学習モデルを開発するためのベストプラクティスを導くために、非体系的な文献レビューを行った。
我々は、偏見を緩和し、異なるグループ間で公平な結果を確保するための定義、メトリクス、技術について議論する。
これらのベストプラクティスを採用することで、金融機関は倫理的かつ責任ある融資プラクティスを維持しながら、機械学習の力を利用することができる。
論文 参考訳(メタデータ) (2024-09-30T17:39:38Z) - Enhancing transparency in AI-powered customer engagement [0.0]
本稿では、AIを活用した顧客エンゲージメントに対する消費者信頼を構築する上での重要な課題について論じる。
AIがビジネスオペレーションに革命をもたらす可能性にもかかわらず、誤った情報やAI意思決定プロセスの不透明性に対する広範な懸念は、信頼を損なう。
透明性と説明可能性に対する全体論的アプローチを採用することで、企業はAIテクノロジへの信頼を育むことができる。
論文 参考訳(メタデータ) (2024-09-13T20:26:11Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Know Your Customer: Balancing Innovation and Regulation for Financial
Inclusion [8.657646730603098]
ファイナンシャル・インクルージョンを目的としたプライバシーに敏感な技術の展開に緊張がどのような影響を及ぼすかを検討する。
我々は,オープンソースの分散識別子と検証可能な認証ソフトウェアに基づくプロトタイプソリューションを構築し,実証する。
これらの緊張から引き起こされる政策含意を考察し、関連する技術をさらに設計するためのガイドラインを提供する。
論文 参考訳(メタデータ) (2021-12-17T21:09:51Z) - Explaining Credit Risk Scoring through Feature Contribution Alignment
with Expert Risk Analysts [1.7778609937758323]
私たちは企業の信用スコアにフォーカスし、さまざまな機械学習モデルをベンチマークします。
目標は、企業が一定の期間内に金融問題を経験しているかどうかを予測するモデルを構築することです。
我々は、信用リスクの専門家とモデル機能属性説明との相違を強調した専門家による機能関連スコアを提供することで、光を当てる。
論文 参考訳(メタデータ) (2021-03-15T12:59:15Z) - Explainable AI in Credit Risk Management [0.0]
機械学習(ML)に基づく信用スコアリングモデルに対して,局所解釈モデル予測説明(LIME)とSHapley Additive exPlanations(SHAP)という2つの高度な説明可能性手法を実装した。
具体的には、LIMEを使用してインスタンスをローカルとSHAPで説明し、ローカルとグローバルの両方で説明します。
SHAP値を用いて生成されたグラフを説明するために利用可能なさまざまなカーネルを使用して、結果を詳細に議論し、複数の比較シナリオを提示する。
論文 参考訳(メタデータ) (2021-03-01T12:23:20Z) - Supporting Financial Inclusion with Graph Machine Learning and Super-App
Alternative Data [63.942632088208505]
スーパーアプリは、ユーザーとコマースの相互作用についての考え方を変えました。
本稿では,スーパーアプリ内のユーザ間のインタラクションの違いが,借り手行動を予測する新たな情報源となるかを検討する。
論文 参考訳(メタデータ) (2021-02-19T15:13:06Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。