論文の概要、ライセンス

# (参考訳) プラットフォーム・ユーザ関係がアルゴリズム的説明責任をどのように形作るか--インドにおけるインスタントローンプラットフォームと金融ストレスユーザーを事例として [全文訳有]

How Platform-User Power Relations Shape Algorithmic Accountability: A Case Study of Instant Loan Platforms and Financially Stressed Users in India ( http://arxiv.org/abs/2205.05661v1 )

ライセンス: CC BY 4.0
Divya Ramesh, Vaishnav Kameswaran, Ding Wang, Nithya Sambasivan(参考訳) 責任あるAIに必要な説明責任は、監査や説明責任といった透明性メカニズムを通じて促進される。 しかしながら、以前の研究は、これらのメカニズムの成功はグローバル・ノースの文脈に限られている可能性を示唆しており、様々な社会・政治条件における現在の介入の限界を理解することは、政策立案者がより広い説明責任を促進するのに不可欠である。 そこで我々は,グローバル・サウス・セッティングにおける,脆弱なユーザと高リスクなAIシステムとの間の既存のインタラクションにおける説明責任の仲介について検討した。 インドにおけるインスタントローンプラットフォームの利用者29名の質的研究について報告する。 その結果,インスタントローンの「ブーム」に対して,利用者は過酷な感情を抱いており,ローンプラットフォームに対する大きな義務を感じていた。 ユーザーは厳しい条件や条件を受け入れ、機密データを過度に共有し、未知の銀行に高い手数料を支払うことで義務を果たす。 ユーザは、虐待、繰り返し負債、差別、プライバシの害、自己損などの危害のリスクにもかかわらず、こうした行為を継続することで、ローンプラットフォームへの依存を示しました。 ユーザはローンプラットフォームに激怒する代わりに、ネガティブな経験の責任を負い、高いパワーを持つローンプラットフォームを説明責任から解放しました。 我々は、説明責任はプラットフォームとユーザ間の力関係によって形成されており、アルゴリズムによる説明責任の育成に純粋に技術的アプローチを採用することを政策立案者に警告する。 代わりに、ユーザエージェンシーを強化し、意味のある透明性を実現し、デザイナとユーザの関係を再構築し、より広い説明責任に対する実践者の批判的なリフレクションを促すような、配置された介入を要求します。 私たちは、インドのFinTechアプリケーションにAIを責任を持ってデプロイすることの意味で締めくくります。

Accountability, a requisite for responsible AI, can be facilitated through transparency mechanisms such as audits and explainability. However, prior work suggests that the success of these mechanisms may be limited to Global North contexts; understanding the limitations of current interventions in varied socio-political conditions is crucial to help policymakers facilitate wider accountability. To do so, we examined the mediation of accountability in the existing interactions between vulnerable users and a 'high-risk' AI system in a Global South setting. We report on a qualitative study with 29 financially-stressed users of instant loan platforms in India. We found that users experienced intense feelings of indebtedness for the 'boon' of instant loans, and perceived huge obligations towards loan platforms. Users fulfilled obligations by accepting harsh terms and conditions, over-sharing sensitive data, and paying high fees to unknown and unverified lenders. Users demonstrated a dependence on loan platforms by persisting with such behaviors despite risks of harms such as abuse, recurring debts, discrimination, privacy harms, and self-harm to them. Instead of being enraged with loan platforms, users assumed responsibility for their negative experiences, thus releasing the high-powered loan platforms from accountability obligations. We argue that accountability is shaped by platform-user power relations, and urge caution to policymakers in adopting a purely technical approach to fostering algorithmic accountability. Instead, we call for situated interventions that enhance agency of users, enable meaningful transparency, reconfigure designer-user relations, and prompt a critical reflection in practitioners towards wider accountability. We conclude with implications for responsibly deploying AI in FinTech applications in India and beyond.
公開日: Wed, 11 May 2022 17:43:12 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
How Platform-User Power Relations Shape Algorithmic プラットフォーム利用電力関係の形状アルゴリズム 0.74
Accountability: A Case Study of Instant Loan Platforms and 説明責任:インスタントローンプラットフォームとケーススタディ 0.59
Financially Stressed Users in India インドにおける金融ストレスのあるユーザー 0.64
Divya Ramesh∗ Divya (複数形 Divyas) 0.29
University of Michigan Ann Arbor, USA ミシガン大学 アン・アーバー(Ann Arbor) 0.50
dramesh@umich.edu dramesh@umich.edu 0.39
Ding Wang Google Research Bangalore, India drdw@google.com Ding Wang Google Research Bangalore, India drdw@google.com 0.50
ABSTRACT Accountability, a requisite for responsible AI, can be facilitated through transparency mechanisms such as audits and explainability. ABSTRACT Accountabilityは、監査や説明可能性といった透明性メカニズムを通じて、責任を持つAIの要件である。 0.75
However, prior work suggests that the success of these mechanisms may be limited to Global North contexts; understanding the limitations of current interventions in varied socio-political conditions is crucial to help policymakers facilitate wider accountability. しかしながら、以前の研究は、これらのメカニズムの成功はグローバル・ノースの文脈に限られている可能性を示唆しており、様々な社会・政治条件における現在の介入の限界を理解することは、政策立案者がより広い説明責任を促進するのに不可欠である。
訳抜け防止モード: しかし 以前の研究は これらのメカニズムの成功は、グローバル・ノース・コンテクストに限定されるかもしれない 多様な社会・政治状況における現在の介入の限界を理解する 政策立案者がより広範な説明責任を促進するのに不可欠です。
0.53
To do so, we examined the mediation of accountability in the existing interactions between vulnerable users and a ‘high-risk’ AI system in a Global South setting. そこで我々は,Global South環境で,脆弱なユーザと‘ハイリスク’なAIシステム間の既存のインタラクションにおける説明責任の仲介について検討した。 0.68
We report on a qualitative study with 29 ￿nancially-stressed users of instant loan platforms in India. インドにおけるインスタントローンプラットフォームの利用者29名の質的研究について報告する。 0.67
We found that users experienced intense feelings of indebtedness for the ‘boon’ of instant loans, and perceived huge obligations towards loan platforms. ユーザたちは、インスタントローンの‘ブーム’に対する不服従感が強く、ローンプラットフォームに対する大きな義務を感じていたことが分かりました。 0.46
Users ful￿lled obligations by accepting harsh terms and conditions, over-sharing sensitive data, and paying high fees to unknown and unveri￿ed lenders. ユーザーは厳しい条件や条件を受け入れ、機密データを過剰に共有し、未知の銀行に高い手数料を支払うことで義務を満たした。 0.59
Users demonstrated a dependence on loan platforms by persisting with such behaviors despite risks of harms such as abuse, recurring debts, discrimination, privacy harms, and self-harm to them. ユーザは、虐待、繰り返し負債、差別、プライバシの害、自己損などの危害のリスクにもかかわらず、こうした行為を継続することで、ローンプラットフォームへの依存を示しました。 0.50
Instead of being enraged with loan platforms, users assumed responsibility for their negative experiences, thus releasing the high-powered loan platforms from accountability obligations. ユーザはローンプラットフォームに激怒する代わりに、ネガティブな経験の責任を負い、高いパワーを持つローンプラットフォームを説明責任から解放しました。 0.63
We argue that accountability is shaped by platformuser power relations, and urge caution to policymakers in adopting a purely technical approach to fostering algorithmic accountability. 我々は、説明責任はプラットフォーム利用者の権力関係によって形成されており、アルゴリズムによる説明責任の育成に純粋に技術的アプローチを採用することを政策立案者に警告する。 0.56
Instead, we call for situated interventions that enhance agency of users, enable meaningful transparency, recon￿gure designer-user relations, and prompt a critical re￿ection in practitioners towards wider accountability. 代わりに、ユーザエージェンシーを強化し、意味のある透明性を実現し、デザイナとユーザの関係を再構築し、より広い説明責任に向けて実践者の批判的な再考を促すような、配置された介入を要求します。
訳抜け防止モード: 代わりに、ユーザーエージェンシーを強化する位置の介入を要求します。 意味のある透明性を実現し、デザイナを再構築する – ユーザ関係。
0.54
We conclude with implications for responsibly deploying AI in FinTech applications in India and beyond. 私たちは、インドのFinTechアプリケーションにAIを責任を持ってデプロイすることの意味で締めくくります。 0.62
∗Work done during an internship at Google Research, India. ∗WorkはインドのGoogle Researchでインターンシップ中に行われた。 0.72
Permission to make digital or hard copies of part or all of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for pro￿t or commercial advantage and that copies bear this notice and the full citation on the ￿rst page. デジタルまたはハードコピーを個人または教室で使用するための許可は、コピーがプロイトまたは商業上の利点のために作成または配布されておらず、コピーがこの通知と、rstページへの完全な引用を伴わない限り、無償で与えられる。 0.72
Copyrights for third-party components of this work must be honored. この作品のサードパーティコンポーネントの著作権を尊重しなければならない。 0.59
For all other uses, contact the owner/author(s). 他のすべての用途について、オーナー/著者に連絡してください。 0.47
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea © 2022 Copyright held by the owner/author(s). FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea > 2022 Copyright held by the owner/author(s)。 0.46
ACM ISBN 978-1-4503-9352-2/22 /06. ACM ISBN 978-1-4503-9352-2/22 /06 0.18
https://doi.org/10.1 145/3531146.3533237 https://doi.org/10.1 145/3531146.3533237 0.15
Vaishnav Kameswaran University of Michigan vaishnav kameswaran university of michigan (英語) 0.58
Ann Arbor, USA vaikam@umich.edu Nithya Sambasivan Ann Arbor, USA vaikam@umich.edu Nithya Sambasivan 0.49
Una￿liated San Francisco, USA nithyas@gmail.com 不明。 サンフランシスコ, USA nithyas@gmail.com 0.59
CCS CONCEPTS • Human-centered computing ! CCS CONCEPTS • 人間中心コンピューティング! 0.92
Human computer interaction (HCI); • Human computer interaction ! Human Computer Interaction (HCI) • Human Computer Interaction ! 0.37
Empirical studies in HCI. HCIにおける実証的研究。 0.64
KEYWORDS algorithmic accountability, algorithmic fairness, human-ai interaction, instant loans, socio-technical systems ACM Reference Format: Divya Ramesh, Vaishnav Kameswaran, Ding Wang, and Nithya Sambasivan. KEYWORDSのアルゴリズム的説明責任、アルゴリズム的公正性、人間-内相互作用、インスタントローン、社会技術的システム ACM参照フォーマット: Divya Ramesh、Vishnav Kameswaran、Ding Wang、Nithya Sambasivan。
訳抜け防止モード: KEYWORDS アルゴリズムのアカウンタビリティ、アルゴリズムの公正性、人間とAIの相互作用 インスタントローン,社会-技術システム ACM参照フォーマット : Divya Ramesh, Vaishnav Kameswaran、Ding Wang、Nithya Sambasivan。
0.78
2022. How Platform-User Power Relations Shape Algorithmic Accountability: A Case Study of Instant Loan Platforms and Financially Stressed Users in India. 2022. プラットフォーム・ユーザ・パワー・リレーションシップがいかにアルゴリズム・アカウンタビリティを形作るか:インドにおけるインスタントローン・プラットフォームと金融ストレスのあるユーザーを事例として 0.49
In 2022 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’22), June 21–24, 2022, Seoul, Republic of Korea. 2022年6月21-24日、大韓民国ソウルの公正、説明責任、透明性に関するACM会議(FAccT'22)。 0.73
ACM, New York, NY, USA, 12 pages. ACM, New York, NY, USA, 12ページ。 0.80
https://doi.org/10.1 145/3531146.3533237 1 INTRODUCTION Accountability is necessary to ensure that arti￿cial intelligence (AI) is deployed responsibly, especially given the wide applicability of AI algorithms to several automated decision making contexts with ‘high stakes’ [40, 57, 58, 81]. 特にAIアルゴリズムがいくつかの自動意思決定コンテキストに適用可能であること(40,57,58,81]を考えると、人工知能(AI)が責任を持ってデプロイされることを保証するためには、イントロデュークション・アカウンタビリティが必要です。 0.70
While automated decision systems (ADS) [106] have the potential to make more e￿cient and fairer decisions than their human counterparts [45, 52], they could also produce harmful outcomes, worsening inequality in society [20, 23, 50, 54, 92, 94, 98]. 自動意思決定システム(ADS) [106] は、人間のものよりもよりエレガントで公平な決定をする可能性があるが(45,52)、有害な結果をもたらす可能性もあり、社会(20, 23, 50, 54, 94, 98)の不平等が悪化する。 0.73
Through accountability relationships, the actors responsible for harms caused by the ADS can be obligated to provide ‘accounts’ to the individuals who are harmed; the individuals or their representatives may then judge the accounts, and seek to impose consequences if necessary [121]. 説明責任関係を通じて、ADSによる損害を負うアクターは、被害を受けた個人に「会計」を提供する義務を負うことができ、個人またはその代表者は、アカウントを判断し、必要であれば結果を求めることができる[121]。 0.69
In this way, we can ensure that the use of ADS occurs in accordance with the interests of all stakeholders. このようにして、すべての利害関係者の利益に応じて、ADSの使用が確実に起こります。 0.56
Facilitating organizational and technical transparency could reduce distrust among stakeholders, and enhance accountability relationships [10, 53, 90, 112]. 組織的および技術的透明性の達成は、ステークホルダ間の不信を減らし、説明責任関係(10,53,90,112]を高める。 0.55
Given their success in the US and UK, transparency mechanisms such as audits and explainability are being mandated in policies worldwide [9, 28, 91]. 米国と英国での成功を踏まえると、監査や説明可能性といった透明性のメカニズムは世界中の[9, 28, 91]政策で義務付けられています。 0.63
Consequently, information disclosure by technology providers1 is often viewed as a precursor for algorithmic accountability [53, 64, 89]. したがって、技術提供者1による情報開示はしばしばアルゴリズム的説明責任[53, 64, 89]の前駆者と見なされる。 0.77
1governments and corporations overseeing the design, development, deployment and/or procurement of ADS 1ADSの設計、開発、展開及び/又は調達を監督する政府及び企業 0.75
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Ramesh et al However, recent work suggests that the success of enhancing accountability relationships through transparency may be limited. Rameshら しかし、近年の研究は、透明性による説明責任関係の強化の成功が制限されていることを示唆している。
訳抜け防止モード: Rameshら しかし最近の研究によると 透明性を通じた説明責任関係の強化の成功は制限される可能性がある。
0.39
Perceived agency of stakeholders [69, 81], their education levels [43], and their optimism in AI [73], could complicate the rhetoric of ‘stakeholder distrust in ADS.’ Further, the e￿cacy of transparency mechanisms towards accountability depends on the presence of a critically-aware public, legislative support, watchdog journalism, and the responsiveness of technology providers [17, 60, 76]. 利害関係者[69,81],その教育レベル[43],ai[73]の楽観主義は,「広告に対する株主不信」のレトリックを複雑化させる可能性がある。さらに,説明責任に対する透明性メカニズムの緩和は,批判的に認識された一般人の存在,立法的支援,監視機関のジャーナリズム,技術提供者[17,60,76]の応答性に依存する。 0.74
Unfortunately, these preconditions may be unique to Global North contexts [109]. 残念なことに、これらの前提条件はグローバルノースコンテキスト [109] に特有のものかもしれない。 0.52
Understanding the limitations of current approaches in varied socio-political conditions is crucial to help policymakers adopt context-appropriate interventions, and ensure wider accountability. 様々な社会・政治状況における現在のアプローチの限界を理解することは、政策立案者が文脈に適合した介入を取り入れ、より広範な説明責任を確保するのに不可欠である。
訳抜け防止モード: 多様な社会・政治状況における現在のアプローチの限界を理解する 政策立案者が適切な介入を行い、より広範な説明責任を確保するために不可欠です。
0.55
Prior work has sought to ease the burden on technology providers towards ful￿lling transparency obligations [89, 102], and studied their impacts on users a￿ected by ADS [42, 113, 122]. 以前の研究は、技術提供者に対する透明性義務(89, 102])の緩和と、広告[42, 113, 122]によるユーザへの影響を調査した。
訳抜け防止モード: 先行作業 透明性義務の履行に向けた技術提供者の負担を軽減すること [89,102] ADS[42, 113, 122 ] によるユーザへの影響を検討した。
0.83
Yet, we know little about on-the-ground manifestations of accountability in ecosystems where some of its preconditions do not hold true. しかし、いくつかの前提条件が当てはまらない生態系における説明責任の現況についてはほとんど分かっていない。 0.62
To ￿ll this gap, we examined how algorithmic accountability is mediated in existing interactions between vulnerable users and a ‘high-risk’ ADS in a Global South setting; one where there is weak legislation and nation-wide high optimism for AI. このギャップを埋めるために、我々は、脆弱なユーザーとグローバル・サウスの「リスクの高い」ADSとの間の既存の相互作用において、アルゴリズムによる説明責任がどのように介在しているかを検討した。 0.63
We conducted a qualitative study with ￿nancially stressed low and middle income users of instant loan platforms in India. インドにおけるインスタントローンプラットフォームの低所得層と中所得層を対象に質的研究を行った。 0.68
These platforms target ‘thin-￿le’ borrowers (i.e., users ineligible to o￿erings from formal ￿nancial services) with various small credit o￿erings, often in the range of INR 500 - INR 100,000 (USD 7 - USD 1500). これらのプラットフォームは、しばしばINR 500 - INR 10000 (USD 7 - USD 1500)の範囲で、様々な小さなクレジットオアリングを持つ「細い」借り手(すなわち、公式のアナンシャルサービスからのオアリングに適さないユーザ)をターゲットにしている。 0.65
The loan platforms use machine learning algorithms trained on alternative data2 to model risk and make lending decisions [5]. ローンプラットフォームは、代替データ2でトレーニングされた機械学習アルゴリズムを使用して、リスクをモデル化し、融資決定を行う [5]。 0.67
Instant loan platforms have risen to prominence in recent years through a combination of factors such as a￿ordable smartphones [80], the state’s push for widespread digital adoption [97], promotion of ￿nancial technology (FinTech) as the poster child of AI success in India [11], and ￿nancial challenges to users brought by the COVID-19 pandemic [18]. インスタントローンプラットフォームは近年、スマートフォン(80)、デジタル普及推進(97)、インドにおけるaiの成功の先駆者としてのシナンシャル・テクノロジー(フィンテック)の推進、新型コロナウイルス(covid-19)パンデミック(covid-19)によるユーザーへのジナンシアル・チャレンジ(18)といった要素の組み合わせによって、注目を集めている。 0.64
Through semi-structured interviews with 29 users of instant loan platforms from low and middle income groups in India, we examined how ￿nancially stressed users made meaning of their experiences with the ‘high-risk’ ADS, and how they perceived their relations to accountability. インドの低所得層や中所得層からの29人のインスタントローンプラットフォーム利用者に対する半構造化インタビューを通じて,「高リスク」なADSの経験から,ユーザがどのような意味を持つのか,また,説明責任との関係について検討した。 0.66
We found that users were drawn to loan platforms due to the promises of immediate money, minimal veri￿cation, and long tenure periods, which were enabled by instantaneous and synchronous aspects of AI. AIの即時的かつ同期的な側面によって実現された、即時融資、最小限の検証、長期在職期間の約束により、ユーザはローンプラットフォームに引き込まれた。 0.65
Users also perceived additional bene￿ts such as enhanced privacy and dignity, preserved social ties, and social mobility through the use of these platforms. ユーザーはまた、プライバシーと尊厳の強化、社会的つながりの保存、これらのプラットフォームの利用による社会的モビリティといった追加の便益も感じた。
訳抜け防止モード: ユーザーはプライバシーや尊厳の強化など追加の便益も感じた。 これらのプラットフォームを使って 社会的結びつきと 社会的モビリティを保ちます
0.71
Since users had few avenues to seek ￿nancial assistance, they perceived instant loans as ‘boons’, and developed emotional attachments towards lenders. ユーザーは補助金を求める道がほとんどなかったため、インスタントローンは「ブーム」と認識し、貸し手に対する感情的な愛着を発達させた。 0.51
Users perceived and ful￿lled several obligations towards lenders, even at the risks of undergoing abuse, discrimination, emotional and reputation harms, and self-harm from them. 利用者は、虐待、差別、感情と評判の害、そして彼らから自己損害を受けるリスクがあっても、貸し手に対するいくつかの義務を認識し、保証した。 0.40
Yet, instead of being enraged with loan platforms, users shared responsibility for their negative experiences. しかし、ローンプラットフォームに激怒する代わりに、ユーザーは否定的な体験に対する責任を共有した。 0.66
Through this work, we make the following contributions: First, we explore the relationship between ADS experiences of users, their social conditions and accountability. まず、ユーザのADS体験と、その社会的状況と説明責任との関係について検討する。
訳抜け防止モード: この研究を通じて 次のような貢献をしました まず,ユーザの広告体験と社会的条件,説明責任の関係について考察する。
0.74
In doing so, we build upon previous work in FAccT, and explore the social dimensions 2non-traditional ￿nancial modeling data such as mobile phone and social media usage, ￿nancial transactions, images and videos used to model risk そこで我々は,facctにおけるこれまでの研究を基盤として,携帯電話やソーシャルメディアの利用,シナンシャルトランザクション,リスクモデリングに使用される画像やビデオといった,非伝統的なシナンシャルモデリングデータを用いて社会的な次元を探索する。 0.63
of accountability through a case study on loan platforms in the Global South. グローバル・サウスの融資プラットフォームに関するケーススタディを通じて、説明責任を負っています。 0.48
We make an empirical contribution regarding how low-powered users perceive and demonstrate a dependence on the ‘high-risk’ ADS, holding themselves responsible for its failures; and how these user behaviors release high-powered actors from accountability obligations. 我々は、低パワーのユーザがいかに高リスクのADSに依存していると認識し、その失敗に責任を持つかを実証し、これらのユーザ行動がハイパワーのアクターを説明責任から解放するかについて、実証的な貢献をしている。
訳抜け防止モード: 電力消費の低さに対する経験的貢献 高いリスク” ADS に依存していることを示すのです。 失敗の責任を負って これらのユーザ行動は、説明責任義務からハイパワーアクターをいかにリリースするか。
0.63
Next, situating our ￿ndings in the literature on accountability, we argue that algorithmic accountability is mediated through platform-user power relations, and can be inhibited by socio-political realities of the context. 次に、説明責任に関する文献の中で、我々は、アルゴリズム的説明責任はプラットフォームとユーザ間の力関係を通じて媒介され、文脈の社会的・政治的現実によって抑制されうると論じる。 0.55
We urge caution to policymakers in adopting universal technical interventions to foster accountability, and instead propose situated [114] approaches towards achieving parity in platform-user power relations. 我々は、説明責任を促進するために普遍的な技術的介入を導入する政策立案者に注意を促し、代わりにプラットフォーム・ユーザ間力関係の同等性を達成するための[114]アプローチを提案する。 0.53
Our proposal includes: 1) Enhancing user agency through critical awareness, 私たちの提案には 1)批判的意識によるユーザエージェントの強化 0.70
2) Enabling meaningful transparency through collective spaces, 2)集合空間を通じた有意義な透明性の実現。 0.55
3) Re-con￿guring designer-user relations through community engagement, and 3)コミュニティ参加によるデザイナー・ユーザ関係の再考 0.76
4) Committing to justice through critical re￿ection. 4) 批判的再審により司法に委任すること。 0.61
We conclude with implications for using ‘alternative data’ in FinTech applications in the Global South. 我々は、Global SouthのFinTechアプリケーションで‘代替データ’を使うことについて結論付けている。 0.74
2 RELATED WORK In this section, we give a brief overview of the platform-user dynamics envisioned in literature on algorithmic accountability, the mechanisms designed to structure accountability relationships, and a glimpse into India’s AI landscape. この節では,アルゴリズム的説明責任に関する文献で想定されるプラットフォームユーザダイナミクス,説明責任関係を構造化するメカニズム,インドのaiの展望について概観する。
訳抜け防止モード: 2 関連WORK この節では,アルゴリズムの可否に関する文献で想定されるユーザダイナミクスについて概説する。 説明責任の関係を構造化し、インドのAIの展望を垣間見るために設計されたメカニズム。
0.76
2.1 Platform-User Dynamics in Algorithmic 2.1 アルゴリズムにおけるプラットフォームユーザダイナミクス 0.57
Accountability Technical and organizational opacity are viewed as primary barriers to fostering accountability [27, 98], suggesting the need for transparency from technology providers [35–37]. 説明責任 技術的および組織的不透明さは、説明責任(27, 98)を育むための主要な障壁と見なされ、技術提供者(35-37)からの透明性の必要性が示唆されている。
訳抜け防止モード: 説明責任 技術的・組織的不透明性は説明責任を育むための主要な障壁と見なされる[27,98]。 技術提供者[35-37]からの透明性の必要性を示唆する。
0.64
Technology providers have also taken steps towards increasing transparency due to a combination of user demands and self-imposed responsibility [19, 84, 117, 123]. テクノロジプロバイダも,ユーザ要求と自発的な責任 [19,84,117,123] の組み合わせによって,透明性を高めるための一歩を踏み出した。 0.71
For instance, researchers studying the experiences of ADS among users have reported increased distrust among users and their desire for transparency into ADS [25, 47], Uber drivers accused the company of deception due to its use of an opaque ADS and demanded more transparency [116], and Yelp users expressed the need for transparency into its recommendation algorithm [48]. 例えば、ユーザー間のADSの経験を研究する研究者は、ユーザー間の不信感と、ADSへの透明性への欲求の高まりを報告している[25, 47]、Uberドライバーは、不透明なADSの使用と透明性の向上を要求した[116]、Yelpユーザはレコメンデーションアルゴリズムへの透明性の必要性を表明している[48]。 0.82
Consequently, several regulatory policies mandate public access to information, hoping that a￿ected users will use this information towards making accountability demands from technology providers [16, 32, 51, 59, 99]. その結果、いくつかの規制政策が情報へのアクセスを義務付けており、この情報を利用して技術提供者(16, 32, 51, 59, 99)からの説明責任要求を行うことを期待している。 0.66
In fact, such an approach has been extremely successful recently. 実際、このようなアプローチは、最近非常に成功した。 0.74
After audit trails of harmful facial recognition systems were made available to the public, there were widespread public campaigns that eventually led to their regulation in the US and UK [26]. 有害な顔認識システムの監査証跡が一般に公開された後、広く公開キャンペーンが行われ、最終的に米国と英国で規制の対象となった[26]。 0.74
Twitter took steps to modify its biased image cropping algorithm to satisfy user demands [123]. Twitterはユーザーの要求を満たすために偏りのある画像トリミングアルゴリズムを変更した[123]。 0.77
However, recent work casts a doubt on the generalizability of these platform-user dynamics to varied contexts. しかし、最近の研究は、これらのプラットフォーム・ユーザ・ダイナミクスのさまざまなコンテキストへの一般化可能性に疑問を投げかけている。 0.44
Favorable outcomes to users from otherwise discriminatory ADS may impede their accountability e￿orts [48, 120], users may resist imputing moral responsibility to ADS [21], and notions of accountability could vary by users’ backgrounds [70]. 差別的 ADS によるユーザに対する好ましくない結果が,彼らの説明責任を損なう可能性がある [48, 120],ユーザは ADS [21] に対する道徳的責任を課すことに抵抗し,説明責任の概念はユーザの背景によって異なる可能性がある [70]。 0.71
In addition, platform-user relations may be more nuanced than the often cited rhetoric of distrust. さらに、プラットフォームとユーザの関係は、しばしば引用される不信のレトリックよりもニュアンスが高いかもしれない。 0.51
Nation-states and users in the Global South view ADS aspirationally and deferentially [109]; where users may attribute far reaching capabilities to グローバル・サウス・ビューの国と利用者は[109]という広告を熱心に宣伝している。 0.43
英語(論文から抽出)日本語訳スコア
How Platform-User Power Relations Shape Algorithmic Accountability プラットフォーム・ユーザ・パワー・リレーションシップのアルゴリズム・アカウンタビリティ 0.50
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
ADS, placing misguided trust in them [93]; and ADS may enjoy a legitimized power to in￿uence users’ actions, even with little or no evidence of their true capabilities [73]. ADSは、誤った信頼を彼らに与え、[93]、そしてADSは、その真の能力の証拠がほとんど、あるいは全くないにもかかわらず、ユーザの行動を不正にするための正当性を持つかもしれない。
訳抜け防止モード: ADS, 誤解された信頼を彼らにあてる[93] そして、ADSはユーザーの行動を不正にするための正当性を持つかもしれない。 本当の能力の証拠は ほとんど あるいは 全く ありません [73 ]
0.73
Prior work calls for aligning transparency with user needs [42, 75]. ユーザの要求[42, 75]に透明性を合わせるための事前作業の呼び出し。 0.75
These ￿ndings warrant a closer examination of the accountability dynamics in varied socio-political conditions; a gap that we seek to ￿ll in this paper. これらの議論は,社会・政治の諸条件における説明責任のダイナミクスのより深い考察を必要としている。 0.61
2.2 Mechanisms of Algorithmic Accountability A recent survey of algorithmic accountability policies in the public sector from 20 national and local governments found that transparency was the prime focus of policies [9]. 2.2 アルゴリズム的説明責任のメカニズム 最近の20の自治体による公共部門におけるアルゴリズム的説明責任ポリシーの調査は、透明性が政策の第一の焦点であることを見出した [9]。 0.76
Under a dynamic where users express skepticism, and seek to take action towards accountability, transparency (i.e., of models, datasets and practices surrounding the development of ADS) are viable mechanisms [53, 64, 89]. ユーザが懐疑論を表現し、説明責任や透明性(ADSの開発を取り巻くモデル、データセット、プラクティスなど)に対処しようとするダイナミックな状況下では、[53, 64, 89]が実現可能なメカニズムである。 0.74
Mechanisms to increase transparency can be standalone such as documentation (i.e., of source-code, datasets, models, and processes surrounding the development of ADS) [21, 30, 55, 64, 83, 105] and explainable decisions (i.e., to help the users make informed choices when interacting with ADS) [10, 21, 42, 83, 100, 119]; or be embedded in other mechanisms such as algorithmic audits [26, 46, 112] and impact assessments [101, 102]. 透明性を高めるメカニズムは、ドキュメンテーション(例えば、ADSの開発を囲むソースコード、データセット、モデル、プロセス) [21, 30, 55, 64, 83, 105] や説明可能な決定(ADSと対話する際にユーザが情報的な選択をするのを助けるため) [10, 21, 42, 83, 100, 119] のようなスタンドアロン、あるいはアルゴリズム監査 [26, 46, 112] や影響評価 [101, 102] のような他のメカニズムに組み込むことができる。 0.88
In fact, some studies with audits and explainability mechanisms have documented positive outcomes such as raising users’ critical awareness [100], increasing their desires to seek accountability from the designers of ADS [113], and in￿uencing technology providers to make changes in ADS [46, 101]. 実際、監査や説明可能性のメカニズムを持つ研究の中には、ユーザの批判的意識を高める[100]、ADS[113]のデザイナからの説明責任を求める欲求を高める、ADS[46, 101]の変更を技術提供者に促すなど、肯定的な成果を文書化しているものもある。 0.69
However, the e￿cacy of mechanisms in fostering accountability also relies on other factors such as a critically-aware public, legislative support, watchdog journalism, and the responsiveness of high-powered actors [17, 60, 76]. しかし、説明責任を育むメカニズムの緩和は、批判的に認識された公衆、立法支援、監視機関のジャーナリズム、高力の俳優の応答性(17, 60, 76])といった他の要因にも依存している。 0.56
Raji and Buolamwini acknowledge the importance of consumer awareness and capitalistic competition in complementing their audit e￿orts in facial recognition regulation [101]. RajiとBuolamwiniは、消費者の認識と資本主義的競争の重要性を認め、顔認識規制における監査の優越性を補完する[101]。
訳抜け防止モード: rajiとbuolamwiniは消費者意識と資本主義的競争の重要性を認めている 顔認証規制の監査を補完する[101 ].
0.79
Unfortunately, such surrounding conditions for accountability are not universally available [109]. 残念ながら、このような説明責任の条件は普遍的に利用できない[109]。 0.69
Organizationallevel changes from technology providers most often occur as a result of regulatory and user pressures [103], low-powered users may ￿nd it challenging to regain their agency displaced by platforms [69, 81], and mechanisms may have limited e￿cacy where there is power asymmetry [17, 76]. 技術提供者からの組織レベルの変化は、規制とユーザからのプレッシャー[103]、低パワーのユーザは、プラットフォームに置き換わるエージェンシーを取り戻すのが困難になる[69, 81]、そしてメカニズムは、パワー非対称性([17, 76])がある場合に限られた効力性を持つ。 0.79
This line of work calls for examining platform-user power relations for designing mechanisms. この一連の作業では、設計メカニズムのプラットフォームユーザ間の電力関係を調べる必要がある。 0.48
2.3 AI Landscape in India India, a country with 1.38 billion where half the population is under the age of 25, is considered an emerging force in AI due to its growing information technology workforce, research in AI, investments and cloud-computing infrastructure [31]. インドにおける2.3のAIランドスケープは、人口の半分が25歳未満の国で、その情報技術労働力の増加、AIの研究、投資、クラウドコンピューティングインフラストラクチャー[31]により、AIの新興勢力と見なされている。 0.71
India envisions AI as a force for socio-economic upliftment, which is seen through state-supported industry initiatives [49] and wide deployment of AI in surveillance [67], agriculture [34], and welfare processing systems [49]. インドは、国家が支援する産業イニシアチブ[49]と、監視[67]、農業[34]、福祉処理システム[49]におけるAIの広範な展開を通じて、社会経済的隆盛の力としてAIを構想している。
訳抜け防止モード: インドはAIを社会-経済隆盛の力として想定している 国家が支援する産業イニシアチブ [49] 監視[67],農業[34]におけるAIの広範な展開 そして福祉処理システム[49]
0.79
However, such promotion is supported with weak legislation. しかし、そのような昇進は弱い法律で支持されている。 0.48
The two national AI strategies i.e., the AI Task force report [115], and the NITI Aayog’s National Strategy for AI [91] are focused on increasing adoption of AI [115] or include prescriptive guidelines towards accountability with insu￿cient enforcement mechanisms [91]. AIタスクフォースレポート[115]とNITI AayogのAIのための国家戦略[91]という2つの国家AI戦略は、AIの採用の増加に焦点を当てている。
訳抜け防止モード: AIタスクフォースレポート[115]の2つの国家的AI戦略。 そして、NITI AayogのAI国家戦略[91]は、AIの採用の増加に焦点を当てている[115]。 あるいは、法執行機関による説明責任に関する規範的なガイドラインを含む[91]。
0.72
Similar recommendations are found in state-level policies on AI in India [56]. 同様の勧告は、インドのAIに関する国家レベルの政策 [56] に見られる。 0.68
Policy-oriented research from the FAccT FAccTによる政策指向研究 0.91
and HCI communities have pointed out how adopting accountability frameworks from the Global North may fail without due consideration to the local contexts where they are applied [71, 85, 109]; Sambasivan et al , have noted the di￿erences in axes discrimination and notions of fairness [109]. また、hciコミュニティは、グローバル・ノースからアカウンタビリティ・フレームワークを採用することは、適用されるローカル・コンテキスト (71, 85, 109]; sambasivan et al) の考慮なしに失敗する可能性があることを指摘した。
訳抜け防止モード: hciのコミュニティは グローバルノースからアカウンタビリティフレームワークを採用する sambasivan et al, 71, 85, 109 ] が適用されるローカルなコンテキストを考慮せずに失敗する可能性がある。 axes の識別とフェアネスの考え方における二元性 [109 ] を指摘した。
0.76
Kalyanakrishnan et al and Marda et al., documented the ampli￿cation of biases when using Western frameworks in the Indian context [71, 86]. kalyanakrishnan et al and marda et al., インドの文脈で西洋のフレームワークを使用する際のバイアスの回避を文書化している [71, 86]。 0.71
We contribute to this emerging line of work on AI policy and research agenda in India. インドにおけるAI政策と研究アジェンダに関するこの新たな取り組みに貢献する。 0.70
3 METHODS 3.1 Interviews We conducted 29 semi-structured interviews with low and middle income individuals (16 men, 13 women) primarily from Karnataka and Tamil Nadu regions in India. 3方法3.1 インド・カルナタカ州とタミル・ナードゥ州を中心に、中所得者(男性16名、女性13名)を対象に、29回の半構造化面接を行った。 0.50
We recruited participants who had used instant loan apps from non-banking ￿nancial companies between 6 months and 2 years of our study through DoWell Research agency and snowball sampling. 調査の6ヶ月から2年の間,非銀行企業からインスタントローンアプリを使用した参加者を,DoWell Research AgencyとSnowball sampleを通じて募集した。 0.72
We provided INR 1500 (USD 20) as incentives to our participants. 参加者へのインセンティブとして,INR 1500(USD 20)を提供した。 0.64
We sampled participants based on age, gender, prior experience using instant loan applications and success of loan approval. 参加者の年齢,性別,過去の経験に基づいて,インスタントローンの申請とローン承認の成功をサンプリングした。 0.63
We conducted virtual interviews in English, Kannada, Tamil and Hindi lasting 35-110 minutes (average of 55 minutes). 英語,カンナダ語,タミル語,ヒンディー語で35~110分(平均55分)の仮想面接を行った。 0.65
The ￿rst author conducted 26 interviews (2 with the help of a translator), and a non-author colleague conducted 3 interviews. アーストの著者は26回のインタビュー(翻訳者の助けを借りて2回)を行い、非著者の同僚は3回のインタビューを行った。 0.57
We sought prior written consent, and informed verbal consent before the start of the interviews. 我々は事前の承諾を求め,インタビュー開始前に言語的承諾を通知した。 0.75
During the interviews, we focused on eliciting narratives [79] from participants to understand インタビューでは参加者から物語を引用すること [79] に焦点を当てた。 0.65
1) their interests, their education and family backgrounds, 1)彼らの関心、教育、家族の背景 0.74
2) their ￿nancial situations during the pandemic, 2)パンデミック時の経済状況 0.45
3) their experiences with lending and borrowing through instant loan apps and other means, and 3)インスタントローンアプリ等を通じて貸借の経験 0.46
4) their notions of justice in lending and borrowing. 4)貸借における正義の概念 0.45
Interviews were transcribed and/or translated within 2-3 days of each interviews. インタビューは各インタビューの2~3日以内に書き起こされ、翻訳された。 0.60
We used a professional service for transcribing the regional language interviews, which were all then individually veri￿ed by the ￿rst author. 私たちは地域の言語インタビューを翻訳するために専門的なサービスを使用しました。
訳抜け防止モード: プロのサービスを使って 地域言語に関するインタビューの書き起こしは、それぞれがガーストの著者によって個別に検証された。
0.61
Towards the end of the interviews, we used a scenario as a probe to elicit participants’ opinions on alternative credit. インタビューの終わりに向けて、私たちは代替クレジットに対する参加者の意見を喚起するための調査としてシナリオを使用しました。 0.62
We ￿rst explained what AI meant to participants’ through examples of Youtube and Facebook, and then presented this scenario: Due to COVID, many people are in need of money but don’t have jobs, or access to PAN cards and bank accounts. 私たちは、youtubeとfacebookの例を通して、aiが参加者にとって何を意味するのかを説明した上で、次のようなシナリオを提示した。
訳抜け防止モード: 私たちはYoutubeとFacebookの例を通して、AIが何を意味するのかを説明した。 そしてこのシナリオを提示しました 多くの人がお金を必要としています しかし、ジョブもPANカードや銀行口座へのアクセスもない。
0.71
Some apps suggest using AI to make lending decisions. 一部のアプリは、融資決定にAIを使うことを推奨している。 0.48
Instead of bank details, they will look at users’ mobile phone information such as biometrics, location, call logs, ￿nancial transactions and shopping apps used on devices, and users’ social media activity to make decisions on loan applications. 銀行の詳細ではなく、ユーザーの携帯電話情報、例えば生体認証、位置情報、通話ログ、銀行取引、デバイスで使われているショッピングアプリ、そしてユーザーのソーシャルメディアアクティビティを調べてローンのアプリケーションについて決定する。 0.67
They believe that this approach will increase people’s access to loans. 彼らはこのアプローチが人々のローンへのアクセスを増加させると信じている。 0.64
What are your thoughts about this? これについてどう思いますか。 0.76
3.2 Analysis We conducted re￿exive thematic analysis to analyze our data [24]. 3.2 データ分析のために再帰的テーマ分析を行った [24]。 0.82
In the familiarization phase, the ￿rst author listened to each audio recording at least once, and read each transcript at least twice, paying close attention to participants’ choice of phrases, especially in regional languages, their emotional reactions to questions, hesitations, pauses, and repetitions. 親しみやすい段階では、アーストの著者は少なくとも1回は各オーディオ録音を聴き、少なくとも2回は各写本を読み、参加者のフレーズの選択、特に地域言語、質問に対する感情的な反応、ためらい、ポーズ、繰り返しに注意を払っていた。 0.70
We recorded these observations and re￿ections and shared them during weekly research meetings with the rest of the team, which then served as aids in coding the data. これらの観察と再現を記録して、チームの他のメンバと毎週のリサーチミーティングで共有しました。
訳抜け防止モード: これらの観察と再現を記録し、チームの他のメンバと毎週のリサーチミーティングで共有しました。 データをコーディングする助けとして役立ちました
0.71
In the coding phase, the lead author followed an open-coding コーディングフェーズでは、リードライターはオープンコーディングに従います。 0.66
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Ramesh et al approach ￿rst, staying close to the data (i.e., needing money urgently, not telling friends the reason for money) [108], and iteratively revised the codes with the second author (i.e., ‘instant’ money, preserving privacy, feelings of indebtedness), resolving disagreements through discussion. Rameshら データに近づいたまま(例えば、緊急にお金が必要で、友人にお金の理由を言わない)[108]、第2著者(即ち「即時」の金銭、プライバシーの保護、不利益の感情)と反復的にコードを改訂し、議論を通じて意見の相違を解決する。 0.47
We generated and re￿ned themes by going over the data, engaging with literature, and through weekly research meetings with third and fourth authors. 私たちは3人目と4人目の著者との週次研究ミーティングを通じて、データを調べてテーマを作り直しました。 0.67
In this work, we present 3 themes that we generated from 11 stable codes: (1) Perceived Bene￿ts of Instant Loan Platforms, (2) Perceived Obligations to Instant Loan Platforms, and (3) Dependence on Instant Loan Platforms. 本研究は,(1)インスタントローンプラットフォームにおけるベネジットの認識,(2)インスタントローンプラットフォームに対する義務の認識,(3)インスタントローンプラットフォームへの依存という,11の安定したコードから生成した3つのテーマについて述べる。
訳抜け防止モード: 本研究では,11の安定符号から生成した3つのテーマについて述べる。 (1 ) Instant Loan Platformsの知覚ベネシュット, (2 ) Instant Loan Platformへの義務と(3 )Instant Loan Platformへの依存を認識。
0.85
3.3 Ethical Considerations and Limitations We approached this topic with great care, knowing the dire circumstances of participants. 3.3 倫理的考察と限界 参加者の希少な事情を知り, 非常に注意してこの問題にアプローチした。 0.61
We re￿ected carefully if this study was time-appropriate. この研究が時間に合えば、私たちは慎重に再検討した。 0.49
Several participants were ecstatic to be part of our research to express their gratitude through our report towards loan companies. 何人かの参加者は、当社の融資会社に対する報告に感謝の意を表していただきました。 0.56
One participant requested extra time to share their experiences in depth. ある参加者は、自身の経験を深く共有するために余分な時間を要求した。 0.53
These incidents helped us viewed our participants as individuals in their own right, rather than as victims of their circumstances, and gave us con￿dence that this research was timely. これらの出来事は、我々の参加者を自身の状況の犠牲者としてではなく、自分自身の個人と見なすのに役立ち、この研究がタイムリーであることを我々に確信させた。
訳抜け防止モード: これらの出来事は、我々の参加者を自身の状況の犠牲者ではなく、自分自身の個人と見なすのに役立った。 この研究がタイムリーだと確信しました
0.64
During the interview, we let participants guide the discussion towards the experiences that were most salient to them. インタビュー中、参加者は最も有意義な体験に向けて議論をガイドできるようにしました。 0.69
We stored data on Google drive and restricted access to the research team. Googleドライブにデータを保存し、研究チームへのアクセスを制限しました。 0.66
We also took care to anonymize the data and report them in this paper. 我々はまた、データを匿名化し、この論文に報告することにも注意した。 0.65
We intentionally do not specify the names of loan platforms that we recruited users from to preserve anonymity. 匿名性を維持するためにユーザを募集したローンプラットフォームの名称は意図的に指定していません。 0.64
Although we attempted to recruit participants across gender, our sample skews more towards men. 男女にまたがる参加者を募集しようとしたが、サンプルは男性に偏っている。 0.68
We also do not have any perspectives from nonbinary identifying individuals. 我々はまた、非バイナリ識別個人からの視点も持っていない。 0.55
Due to the COVID-19 pandemic, we conducted all our interviews over video and phone, which limited our ability to include observations and contextual inquiry. 新型コロナウイルス(COVID-19)のパンデミックのため、私たちはすべてのインタビューをビデオと電話で実施しました。 0.45
The ￿rst author’s caste and class privilege (evident through name and dialect) may have in￿uenced participants’ responses. アーストの著者のキャストと階級特権(名前と方言による証拠)は、参加者の反応を不正にすることができる。 0.60
Our research team has over 10 years of experience working with marginalized populations in the Global South. 私たちの研究チームは、世界南部の辺境の人口と10年以上の経験があります。 0.66
Re￿ecting on our positionality, we elicited narratives with care, and analyzed the data extensively to cover multiple themes, and ensure validity. 我々の立場に基づいて、私たちは物語に注意を喚起し、複数のテーマをカバーし、有効性を確保するためにデータを広範囲に分析した。
訳抜け防止モード: 我々の立場に反する。 物語に注意を払い データを広範囲に分析し 複数のテーマをカバーし 有効性を保証します
0.72
4 CONTEXT 4.1 Participant Demographics 10 participants belonged to urban-middle income groups, and the rest 19 participants belonged to urban-low or lower-middle income groups. 4 CONTEXT 4.1 参加デモグラフィック 10 参加者は都市中等所得グループに属し,残りの19 参加者は都市中等所得グループに属した。 0.79
25 of our participants worked in the service sectors as accountants and chefs in restaurants, carpenters, customer service, sales and marketing representatives, tailors, taxi and auto-rickshaw drivers, or owned small businesses. 参加者のうち25人は、会計士やシェフとしてレストラン、大工、カスタマーサービス、セールスとマーケティングの代表者、仕立て屋、タクシーとオートショーの運転手、あるいは小さなビジネスで働いていました。 0.63
2 participants worked in health and education sectors, and 2 participants identi￿ed their primary roles as “house-wives. 2人は保健・教育分野で働き、2人は主役を「主婦」として特定した。 0.57
" All our participants incurred signi￿cant loss of incomes during the pandemic. 「すべての参加者がパンデミックの最中に失業者の所得を減らした。」 0.57
Several participants (n=16) were responsible for supporting 4-5 member households with reduced or no incomes; they had pledged or sold the few assets they possessed, and in few cases, the very assets that were sources of income to them. 数名(n=16)の参加者が4~5世帯の収入が減ったか全くなかったかの支援を担当しており、彼らは保有する資産を誓約または売却し、その資産が収入源であった場合も少なくなかった。 0.66
In addition, vulnerability for them meant having to comply with exploitative rules from informal lenders, from their children’s schools, from local state o￿ces, and participants having no monetary or social capital to even claim their rights. さらに、それらの脆弱性は、子供たちの学校から、地元のオーセから、そして、自分の権利を主張する金銭や社会資本を持っていない参加者まで、非公式の銀行家からの搾取規則に従わなければならないことを意味していた。
訳抜け防止モード: さらに、その脆弱性は、非公式の貸し手による搾取ルールに従わなければならないことを意味していた。 子供たちの学校から 地元のオーセまで 金銭や社会資本も持たない参加者が 権利を主張するのです
0.53
4.2 Instant Loan Applications Instant loan platforms, primarily classi￿ed as ‘FinTech’ provide technical infrastructure to connect NBFCs (shadow banking entities that o￿er ￿nancial services without a banking license) [1] with borrowers. 4.2 Instant Loan Applications Instant loan platform、主に‘FinTech’に分類されるインスタントローンプラットフォームは、NBFC(銀行免許なしの銀行業務を行う影の銀行組織)と借り手を結ぶ技術的インフラを提供する。 0.75
They o￿er small, short term loans, typically INR 500 - 500,000 over a period of 15 days - 6 months, using machine learning on a combination of CIBIL scores3, and ‘alternative credit data.’ Although the workings of these loan apps are proprietary, most instant loan apps, in their privacy policy, disclose using the following as ‘alternative credit data’: ‘know-your-customer’ (KYC) data such as names, addresses, phone numbers, PIN codes, reference contacts, photos, and videos, personal account number (PAN), Aadhar number (unique identi￿cation number); device information such as location, hardware model, build model, RAM, storage, unique device identi￿ers like Advertising ID, SIM information that includes network operator, WIFI and mobile network information, cookies; ￿nancial SMS sent by 6-digit alphanumeric senders, and information obtained from 3rd party providers for making credit decisions [2, 4–7]. They o￿er small, short term loans, typically INR 500 - 500,000 over a period of 15 days - 6 months, using machine learning on a combination of CIBIL scores3, and ‘alternative credit data.’ Although the workings of these loan apps are proprietary, most instant loan apps, in their privacy policy, disclose using the following as ‘alternative credit data’: ‘know-your-customer’ (KYC) data such as names, addresses, phone numbers, PIN codes, reference contacts, photos, and videos, personal account number (PAN), Aadhar number (unique identi￿cation number); device information such as location, hardware model, build model, RAM, storage, unique device identi￿ers like Advertising ID, SIM information that includes network operator, WIFI and mobile network information, cookies; ￿nancial SMS sent by 6-digit alphanumeric senders, and information obtained from 3rd party providers for making credit decisions [2, 4–7].
訳抜け防止モード: 短期融資は、通常15日~6ヶ月の期間に500~50万円程度である。 cibil score3と‘代替クレジットデータ’の組み合わせで機械学習を使用する。 これらのローンアプリはプロプライエタリだが、ほとんどのインスタントローンアプリはプロプライエタリだ。 プライバシポリシでは、以下のことを‘代替クレジットデータ’として公開する。 ‘ know - your - customer ’(kyc )データ。 住所、電話番号、pinコード、参照連絡先、写真、ビデオ。 個人口座番号(pan)、アダール番号(ユニークな識別番号);位置情報などのデバイス情報 ハードウェアモデル、ビルドモデル、ram、ストレージ、広告idのようなユニークなデバイスid、 ネットワークオペレータ、wifi、モバイルネットワーク情報を含むsim情報。 クッキー (cookies) ; 6桁のアルファ数字送信者から送信されるsmsと、信用決定を行うサードパーティプロバイダから得られた情報 [2, 4–7]。
0.71
Applications also use this data for analyzing user behavior for advertising and security purposes. アプリケーションは、広告やセキュリティの目的でユーザーの行動を分析するのにこのデータを使う。 0.68
Apps use AI in several other ways including use facial recognition for completing veri￿cation, natural language processing for information extraction and contract automation, machine learning for fraud detection and market analysis, and chatbots to provide customer service [3]. アプリは、検証を完了するための顔認識、情報抽出と契約自動化のための自然言語処理、不正検出と市場分析のための機械学習、顧客サービスを提供するチャットボットなど、さまざまな方法でAIを使用している。 0.69
These platforms, targeted at borrowers from low and middle income groups, have proliferated the market recently, and are hailed by the state as the ‘drivers of economic growth’ for the ‘unbanked’ India [11]. これらのプラットフォームは、低所得層や中所得層からの借り手を対象としており、最近市場を拡大しており、「銀行化されていない」インド[11]の「経済成長の要因」として国家から称賛されている。 0.62
Some popular apps include Kissht [5], Dhani [2], KreditBee [6], SmartCoin [7], and MoneyTap [4]. Kissht [5], Dhani [2], KreditBee [6], SmartCoin [7], MoneyTap [4]などの人気アプリもある。 0.68
5 FINDINGS All participants unanimously cited the promise of ‘instant cash’ as primary reasons for trying instant loan platforms. 5 FINDINGS すべての参加者は、インスタントローンプラットフォームを試す主な理由として、‘インスタントキャッシュ’の約束を全会一致で言及した。 0.55
We found that this promise was the precursor to a cycle of reciprocal exchanges between loan platforms and the users, which we discuss with the help of the following themes: (1) Perceived Bene￿ts of Instant Loan Platforms, (2) Perceived Obligations to Instant Loan Platform, and (3) Dependence on Instant Loan Platforms. この約束は、ローンプラットフォームと利用者間の相互交換のサイクルの先駆けであり、(1)インスタントローンプラットフォームの受益者、(2)インスタントローンプラットフォームの受益者、(3)インスタントローンプラットフォームへの受益者、(3)インスタントローンプラットフォームへの依存といったテーマの助けを借りて議論する。
訳抜け防止モード: この約束は、融資プラットフォームとユーザ間の相互交換のサイクルの先駆けであることに気づきました。 以下に示すテーマの助けを借りて議論する。 (1 ) インスタントローン・プラットフォームにおけるベネシュの知覚。 (2 ) Instant Loan Platformへの義務と(3 )Instant Loan Platformへの依存性を認識する。
0.79
5.1 Perceived Bene￿ts of Instant Loan 5.1 インスタントローンの受益権 0.78
Platforms Participants who were successful in availing instant loans through the applications expressed great excitement and gratitude towards these platforms. ホーム アプリケーションを通じてインスタントローンの活用に成功した参加者は、これらのプラットフォームに対して大きな興奮と感謝を表した。
訳抜け防止モード: ホーム アプリケーションを通じて即時融資を活用できた参加者 これらのプラットフォームに対する大きな興奮と感謝を表しました。
0.44
While many of our participants faced signi￿cant ￿nancial hardships even before the COVID-19 pandemic, almost all of them experienced exacerbated di￿culties during the pandemic. 新型コロナウイルス(COVID-19)のパンデミック以前にも、多くの参加者がシニエカント・アンナンシアル・ハードシップに直面していたが、そのほとんどがパンデミックの間に悪化したジエクルを経験していた。
訳抜け防止モード: 新型コロナウイルス(COVID-19)のパンデミック前でさえ、多くの参加者が暗黙の苦難に直面した。 パンデミックの間に ほとんど全員が悪化した
0.47
Several participants (n=16) reported seeking loans to either supplement or substitute their loss of incomes. 参加者数名(n=16)は、収入の損失を補うか代用するために融資を求めると報告した。
訳抜け防止モード: 参加者数名(n=16) 収入の損失を補うか代用するかの融資を求める。
0.58
These platforms also o￿ered attractive bene￿ts, giving our participants the perceptions of loans with no-strings attached. これらのプラットフォームは魅力的なベネストを駆使し、参加者に無弦のローンに対する認識を与えました。 0.44
We highlight perceived bene￿ts of instant loan platforms with the help of the following codes: 我々は,次のようなコードを用いて,インスタントローンプラットフォームの好意性を強調する。 0.60
1) Being able to access anytime, anywhere, 1)いつでもどこでもアクセスできます。 0.83
2) Ensuring dignity and privacy, 2)尊厳とプライバシーの確保。 0.72
3) Preserving social ties, and 3 社会的結びつきの維持、及び 0.66
4) Promising social mobility. 4)ソーシャルモビリティの促進。 0.77
3credit scores generated by the Credit Information Bureau India Limited インド信用情報局が作成する3つの信用スコア 0.81
英語(論文から抽出)日本語訳スコア
How Platform-User Power Relations Shape Algorithmic Accountability プラットフォーム・ユーザ・パワー・リレーションシップのアルゴリズム・アカウンタビリティ 0.50
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
5.1.1 Being able to access money anytime, anywhere. 5.1.1 いつでもどこでも金にアクセスできる。 0.63
Participants’ enthusiasm for instant loans often highlighted their distrust in formal banking sectors, a ￿nding also reported in research on ￿nancial experiences of other vulnerable populations [95, 118]. 参加者のインスタントローンへの熱意は、公的銀行セクターにおける不信感を浮き彫りにすることがしばしばあった。
訳抜け防止モード: 参加者のインスタントローンへの熱意は、フォーマルな銀行部門の不信感をしばしば強調する。 ディンディングは、他の脆弱な人口[95, 118]のナンシアル体験に関する研究でも報告している。
0.58
Our participants despised extensive veri￿cation processes of formal loans. 参加者は形式的融資の広範囲な検証過程を軽視した。 0.46
Formal loan processes required applicants to submit a long list of identity veri￿cation documents such as birth certi￿cates, caste certi￿cates, assets documents, employment certi￿cates. 正式な融資プロセスでは、申請者は、出生証明書、鋳造証明書、資産文書、雇用証明書など、多くの個人認証書類を提出する必要があった。 0.56
Several of our participants did not have these documents to begin with,4 shutting them out of formal ￿nancial systems. 参加者の何人かは、最初にこれらの文書を持っていなかった;4は、正式なシナンシャルシステムからそれらをシャットアウトした。
訳抜け防止モード: 参加者の何人かはこれらの文書を持っていません まずは 正式な財務システムから 取り除くことです
0.57
Finding the right set of documents to produce is never an easy task for anyone, and was exceptionally di￿cult for those participants who had lower levels of education and literacy. 適切な文書のセットを見つけることは誰にとっても容易な作業ではなく、教育と識字率の低い参加者にとっては例外的に希薄であった。 0.70
Further, participants were required to seek willing guarantors who would support their applications, open up their homes to unannounced visits from loan o￿cers, and haggle with them for weeks, even after which there was no guarantee of a loan. さらに、参加者は、申し込みを支持する意思のあるグアランテーターを要請し、ローンのオーサーからの未発表の訪問のために自宅を開放し、何週間も彼らとジャグリングし、その後はローンの保証がなかった。 0.61
As P16 said, “[Banks] have several rules and regulations. P16は曰く、“銀行にはいくつかのルールと規則がある。 0.68
[..] They might say, ‘there was a server problem, come back tomorrow.’ They make us roam everywhere. サーバーに問題があって、明日帰ってきてくれ」と彼らは言うかもしれません。彼らは私たちを至る所で歩き回らせます。 0.56
There are a lot of internal things that we don’t understand. 私たちが理解していない内部的なものはたくさんあります。 0.83
" In contrast, instant loans arrived into users’ bank accounts within minutes of them making requests. While the requirements of di￿erent apps varied slightly, participants generally recalled providing minimal details such as the their names, addresses, phone numbers, sel￿es, permanent account numbers (PAN) and Aadhar card numbers (unique identi￿cation numbers). Given the convenience of loan apps, participants anecdotally mentioned borrowing loans from quaint locations such as under the streetlights and bathrooms at midnight. Such instant money was a boon for participants like P10 during dire circumstances: "[W]hen I installed the app, the ￿rst thing I was happy about - instant cash. " In contrast, instant loans arrived into users’ bank accounts within minutes of them making requests. While the requirements of di￿erent apps varied slightly, participants generally recalled providing minimal details such as the their names, addresses, phone numbers, sel￿es, permanent account numbers (PAN) and Aadhar card numbers (unique identi￿cation numbers). Given the convenience of loan apps, participants anecdotally mentioned borrowing loans from quaint locations such as under the streetlights and bathrooms at midnight. Such instant money was a boon for participants like P10 during dire circumstances: "[W]hen I installed the app, the ￿rst thing I was happy about - instant cash.
訳抜け防止モード: 「対照的に、インスタントローンは請求の数分以内にユーザーの銀行口座に届きました。 ディシレントアプリの要件は微妙に異なるが、参加者は一般的に名前などの最小限の詳細を思い出した。 住所、電話番号、電話番号、永久口座番号(pan)。 そして、aadharカード番号(ユニークな識別番号)。 参加者は、真夜中に街灯や浴室の下など、静かな場所からの借入について言及している。 このような即時的なお金は,p10のような参加者にとって,悲惨な状況下での恩恵でした。 私が一番嬉しかったのは、インスタントキャッシュです。
0.75
Because it was the urge of the money at that point of time. 当時の金の衝動だったからである。 0.42
And I got within 5 minutes! Believe it or not 5 minutes, I received the money. 5分以内に! 5分もしないうちにそのお金をもらった。 0.56
" 5.1.2 Ensuring dignity and privacy. Several participants who praised the features of instant loans shared their experiences with local money lenders or pawn brokers, whom they had turned to due to di￿culties in getting loans from banks. However, local lenders had often charged high interest rates, demanded repayment on their whims, and had sometimes employed aggressive recovery tactics such as visiting homes, and harassing our participants and their families. P3 recalled, “I had taken once a 2000 rupees (USD 27) loan [from a local lender], and they had charged me 500 interest that I was supposed to repay within a month. They were harassing me, and wanted the money immediately." " 5.1.2 Ensuring dignity and privacy. Several participants who praised the features of instant loans shared their experiences with local money lenders or pawn brokers, whom they had turned to due to di￿culties in getting loans from banks. However, local lenders had often charged high interest rates, demanded repayment on their whims, and had sometimes employed aggressive recovery tactics such as visiting homes, and harassing our participants and their families. P3 recalled, “I had taken once a 2000 rupees (USD 27) loan [from a local lender], and they had charged me 500 interest that I was supposed to repay within a month. They were harassing me, and wanted the money immediately."
訳抜け防止モード: 「5.1.2 尊厳とプライバシーの確保。 インスタントローンの特徴を賞賛する参加者は、地元の銀行家やポーンブローカーと自らの経験を共有した。 銀行から融資を受けることの困難さが原因だった。 しかし、地元の銀行はしばしば高い金利を請求し、その気まぐれに対する返済を要求していた。 時折 自宅訪問などの積極的な 回復策を採っていました 参加者とその家族を嫌がらせしました。 2000ルピー(usd 27)の融資を1回受け取りました。 1ヶ月以内に返金すると500人の利子を請求した 嫌がらせしてた すぐにお金を欲しがった」と述べた。
0.74
Fearing reputation harm from local lenders and gossip in their social circles, participants avoided seeking such loans except in unavoidable circumstances. 地元の貸し手やゴシップから評判が損なわれるのを恐れた参加者は、避けられない状況を除いてそのような融資を求めることを避けた。 0.50
Instant loan applications, by nature of being on users’ mobile devices, offered a high degree of privacy that was previously unavailable for participants. インスタントローンのアプリケーションは、ユーザーのモバイルデバイスにあるという性質から、これまで参加者が利用できなかった高度なプライバシーを提供した。 0.65
P19 explained, “You take from market [...] everyone will get to know. P19は、こう説明する: “市場から取り除くと、誰もが知るようになる。 0.69
[People] will talk. Here [...] no one else will know. 人々]が話す。 ここ[...]は誰も知らない。 0.51
" Users were a￿orded the ￿exibility of starting repayments after a few months, and could even request time extensions with 1-click features. ユーザーは数ヶ月後に支払いを開始する可能性があり、1クリック機能で時間拡張を要求することさえできた。 0.70
Our participants welcomed such features as hallmarks of borrower-friendlines s. 参加者は借り手の親しみの目印などの特徴を歓迎した。 0.47
P3, who was quoted previously contrasted 4Having access to birth certi￿cates and caste certi￿cates is highly correlated with class, caste and socio-economic status in India. P3は、4Having access to birth certi'cates and caste certi'catesと、インドにおける階級、カースト、社会経済的地位と高い相関関係にある。 0.70
As of 2016, 62.3% of children under the age of 5 had birth certi￿cates, and 69.1% of all household members had aadhar cards [65] 2016年現在、5歳未満の子どもの62.3%が産婦人科を、69.1%がアダルカードを保有している[65]。 0.71
their experiences, “Whether your loan amount is large or small, [instant loan platforms] will give you some time to repay... [When local lenders were harassing me], I took this instant loan. あなたのローンの額が大小を問わず、 [instant loan platforms] という彼らの経験は、返済の時間を与えてくれる... [地元の銀行が私を嫌がらせしていたとき]、私はこの即時融資を受け取りました。 0.67
[The app] gave me three months time to repay the money and interest was also just 300 rupees. アプリはお金を返済するのに3ヶ月の時間を与え、利息もたった300ルピーでした。 0.72
" In addition, the promise of digital transactions instilled hopes of digital repercussions on defaulting, like a meagre impact on participants’ CIBIL credit scores, thus increasing their overall comfort in borrowing instant loans. 5.1.3 Preserving social ties. Almost all our participants reported routinely turning to their closest circles during times of need. However, such lending-and-borrowin g was riddled with complexities. First, it was di￿cult for participants to even muster the courage to ask their social circles. In social circles, small loans were indicative of participants’ inability to manage their households, and thus hurt their respectability. When P14 asked relatives for help with her child’s education, she received unsolicited advice in the guise of care: “[They said], ‘why do you want to send [your kid] to that school paying high fees in this critical situation? You can just shift [switch] to government (public) school." " In addition, the promise of digital transactions instilled hopes of digital repercussions on defaulting, like a meagre impact on participants’ CIBIL credit scores, thus increasing their overall comfort in borrowing instant loans. 5.1.3 Preserving social ties. Almost all our participants reported routinely turning to their closest circles during times of need. However, such lending-and-borrowin g was riddled with complexities. First, it was di￿cult for participants to even muster the courage to ask their social circles. In social circles, small loans were indicative of participants’ inability to manage their households, and thus hurt their respectability. When P14 asked relatives for help with her child’s education, she received unsolicited advice in the guise of care: “[They said], ‘why do you want to send [your kid] to that school paying high fees in this critical situation? You can just shift [switch] to government (public) school."
訳抜け防止モード: 「さらに、デジタル取引の約束は、デフォールトにデジタル影響の希望を植え付けている。」 参加者のcibilクレジットスコアに対する単純な影響のように、全体的な快適感を高めます。 インスタントローンを借りる。 5.1.3 社会的なつながりの保存. 参加者のほとんどが,必要な時にいつも最寄りの円に目を向けていると報告した。しかし,そのような貸付 - そして、借り物は複雑に満ちていた。まず、参加者が社会的な円に問いかける勇気さえも必要だった。社会的な円の中で。 少額の融資は、参加者が家族を管理することができないことを示している。 p14が親類に子供の教育の助けを求めたとき、彼らは尊敬を害した。 彼女は不注意な態度で不当な助言を受けた なぜあなたが望むのか? この危機的状況で 高校に高給で送るために? 学校を政府(公立)に移すだけ」と語っている。
0.72
Public schools in India o￿er free education, and are often viewed as schools for children from lower socio-economic backgrounds. Education is highly regarded as a mobility tool for the middle classes in India. Hence, sending children to well-regarded private schools is both a responsibility, and a matter for pride for parents, leading P14 to perceive the advice as derogatory. Given such humiliating experiences, participants equated borrowing from social circles with pledging their “self-respect." Public schools in India o￿er free education, and are often viewed as schools for children from lower socio-economic backgrounds. Education is highly regarded as a mobility tool for the middle classes in India. Hence, sending children to well-regarded private schools is both a responsibility, and a matter for pride for parents, leading P14 to perceive the advice as derogatory. Given such humiliating experiences, participants equated borrowing from social circles with pledging their “self-respect."
訳抜け防止モード: インドの公立学校は自由教育を受けており、社会学の低い児童のための学校と見なされることが多い。 教育はインドの中産階級の移動手段として高く評価されている。 そのため、子供たちを元気に送る-私塾 両親の責任とプライドの問題です 軽蔑とみなすためにP14を導いた。 参加者は、社会的サークルから「自己-尊敬」を借用した。
0.78
Naturally, when their requests for money were unmet, participants like P9 dealt with extreme feelings of rejection that strained relationships: “I knew they had the money, and they still refused. That is why I don’t feel like asking anyone money... Earlier I used to keep in touch regularly, now that bonding is not there." 当然、お金の要求が無くなったとき、P9のような参加者は「彼らはお金を持っていて、まだ拒否している。それ故に私は誰にでもお金を求める気はない。以前、私は定期的に連絡をとっていたが、今では結合は存在しない。」という、極端な拒絶の感情に対処した。 0.66
Small, predetermined loans o￿ered by instant loan platforms removed burdens of ask, and alleviated worries of social image for participants. In addition, participants hoped that the ‘instant’ nature of loans would ensure that they did not dwell on their feelings in case of rejection. インスタント融資プラットフォームによる小規模かつ所定の融資は、要求の負担を取り除き、参加者の社会的イメージの不安を和らげ、さらに「即時的」なローンの性質が、拒絶された場合の感情を損なわないことを確実にすることを期待した。 0.63
As P26 said, “If I get [the loan] I’m lucky enough. P26が言ったように、“ローンが手に入ったら十分ラッキーだ”。 0.69
If not, [...] [t]here’s no risk involved. そうでなければ, [...] [t] リスクはありません。 0.68
[...] [Next day], there is a tendency that you could forget also. [[...][次の日]も忘れてしまう傾向があります。 0.47
You would just move o￿ (on). o' (on) を移動させます。 0.58
" 5.1.4 Promising social mobility. Some participants had been lured into the credit system previously through shopping and entertainment, but such experiences had rarely ended well. They had subscribed to comforts and generous credit limit increases without worrying about monthly EMI payments. Few users had understood how credit cards worked, what credit scores meant, and the implications of defaulting on their credit bills. P20 learned about the implications of credit scoring system through negative experiences: “First we got INR 5000 from [￿nancial institution], which gradually increased to INR 15,000 [and ￿nally reached] INR 1,60,000. I purchased many products through [credit][...]. I now have [a credit score of] 600. Because of this, nobody is giving us loans." " 5.1.4 Promising social mobility. Some participants had been lured into the credit system previously through shopping and entertainment, but such experiences had rarely ended well. They had subscribed to comforts and generous credit limit increases without worrying about monthly EMI payments. Few users had understood how credit cards worked, what credit scores meant, and the implications of defaulting on their credit bills. P20 learned about the implications of credit scoring system through negative experiences: “First we got INR 5000 from [￿nancial institution], which gradually increased to INR 15,000 [and ￿nally reached] INR 1,60,000. I purchased many products through [credit][...]. I now have [a credit score of] 600. Because of this, nobody is giving us loans."
訳抜け防止モード: 『5.1.4 ソーシャルモビリティの実証』 一部の参加者は以前、ショッピングやエンターテイメントを通じて信用システムに誘われていた。 しかし、そのような経験がうまくいったことはめったになく、彼らは快適さと寛大な信用限度を 毎月のEMI支払いを心配しています クレジットカードがどのように機能したのか、クレジットカードのスコアが何を意味するのか、クレジットカードのデフォルトがどのような意味を持つのかを理解できたユーザーはほとんどいなかった。 P20は、負の体験を通して信用スコアシステムの意味について学んだ : 「まずは、[財務機関]からInR 5000を得た」 これは徐々にINR 15,000に増加し、INR 1,60,000となった。 私は多くの商品を[クレジット]で買いました. 今では600点ですから。 誰も融資をしない
0.62
Participants with middle class aspirations were often fearful, and expressed aversion to incurring large debts. 中流階級の志望者はしばしば恐れられ、大きな負債を負うことへの嫌悪を表明した。 0.57
However, as P08 put it, seemingly small loans o￿ered by instant loan platforms were necessary evils that could help users build credit and achieve dreams of mobility: “[B]anks should grant us loans in the future. しかし、p08が述べているように、インスタントローンプラットフォームによって引き起こされた一見小さなローンは、ユーザーが信用を構築し、モビリティの夢を実現するのに役立つ悪だった。
訳抜け防止モード: しかし、p08が言うように、インスタントローンプラットフォームによる小さな融資は必要悪であった。 ユーザーが信用を築き、モビリティの夢を実現するのに役立つかもしれない : “[b]anksは将来、我々にローンを与えるべきです。
0.64
[...] If we don’t take a loan, [credit score] will go in the negative. [...]もしローンを取らなければ、[クレディットスコア]はマイナスになるでしょう。 0.52
" Participants thus reported seeking 『捜索を報告した参加者』 0.46
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Ramesh et al instant loans for their children’s education, for upgrading their comforts, and to secure ￿nancial independence. Rameshら 子どもの教育、快適さのアップグレード、そして南の独立の確保のための即時融資。 0.43
5.2 Perceived Obligations to Instant Loan 5.2 インスタントローンに対する義務の認識 0.63
Platforms Instant loan platforms were sources of immediate money and also the only means of survival for participants during di￿cult times when they ran from pillars to posts to seek ￿nancial help. ホーム インスタントローンのプラットフォームは、直接の資金源であり、彼らが柱から柱へと走った時、参加者にとって唯一の生き残りの手段であった。 0.40
Participants used instant loans to manage their everyday expenses, ranging from buying groceries, paying for school fees of their children, to clearing outstanding debts. 参加者はインスタントローンを使って、食料品の購入、子供の学費の支払い、未払いの債務の清算など、日々の経費を管理する。 0.62
Thus, as in the old adage, several participants equated the loan platforms with friends, and expressed intense feelings of indebtedness towards loan companies. このように、旧来の広告と同様に、何人かの参加者はローンプラットフォームを友人と同一視し、融資会社に対する不信感を強く表した。 0.48
P01, who sought instant loans when his business went haywire said, “It really helped me during my tough times, so I actually owe them and I’m actually [still] owing them... p01は、彼のビジネスがhaywireになったとき、すぐに融資を求めたが、彼はこう言った: “厳しい時代に本当に役立ったので、実際に借りがある。 0.60
I would recommend this app to so many of my contacts and I would say just like how ‘a friend is in need is a friend indeed’. 私はこのアプリを非常に多くの連絡先に推奨し、’友達が本当に友達である’ように言っておきたい。
訳抜け防止モード: 私はこのアプリを多くの連絡先におすすめします。 そして、’友達が本当に友達である’というような言い方もします。
0.76
" Our participants perceived and ful￿lled several obligations toward the loan platforms, that we explain through the following codes: 「当社の参加者は、以下の規定を通じて、融資プラットフォームに対するいくつかの義務を認識し、履行した。 0.58
a) Accepting harsh terms and conditions, a) 厳しい条件及び条件を受け入れること 0.82
b) Over-sharing sensitive data, and b) 過度に共有された機密データ,及び 0.61
c) Making high fee payments. c) 高い手数料を支払うこと。 0.73
5.2.1 Accepting harsh terms and conditions. 5.2.1 厳しい条件と条件を受け入れる。 0.60
In the anticipation of ‘instant’ money, several participants acknowledged that they had simply clicked on ‘I agree’ to terms and conditions of the apps, without expending the slightest e￿ort to understand what they were consenting to. 一部の参加者は「インスタント」マネーを期待して、アプリの条件や条件に「私は同意している」とクリックしたと認めました。
訳抜け防止モード: インスタントマネーを期待して、一部の参加者は、アプリの条件や条件に応じて’I agree ’をクリックしたと認めた。 彼らが同意したことを 理解するために ほんの少しのエソルトを 追い詰めることなく
0.71
Likewise, very few participants recalled the speci￿c terms that had been imposed by the apps, which we found ranged from peculiar to extremely harsh. 同様に、アプリによって課されたスペシシシシックな条件を思い出す参加者はごくわずかで、特異なものから極めて厳しいものまで様々だった。 0.64
For instance, P4 explained how he generated 3D views of his face instructed by a facial recognition bot, “It will ask for a sel￿e. たとえばP4は、顔認識ボットに指示された顔の3Dビューをどうやって生成したのかを説明している。 0.72
Turn both the sides, open the mouth... blink your eyes, rotate your head. 両側面を回して口を開け...目をまぶし、頭を回す。 0.77
" Obliging such requests were mandatory if participants wished to proceed with their applications. Some others recalled agreeing to potential legal actions and home visits in the case of defaulting on small loans. Such acceptances were viewed as mere formalities in getting access to progressively large credit limits. For instance, P3 recalled their speedy acceptance of terms, and the subsequent ascent in credit limits, “[I]f you’re not repaying the loan then they will take the legal action. They can also come to the home, and you have to pay a penalty of eight rupees per day... [Y]ou have to say okay to all these things. [...] After this, they will give you 500 (USD 7) rupees ￿rst. Once you repay, they will give you 1000 (USD 15) (and so on)." " Obliging such requests were mandatory if participants wished to proceed with their applications. Some others recalled agreeing to potential legal actions and home visits in the case of defaulting on small loans. Such acceptances were viewed as mere formalities in getting access to progressively large credit limits. For instance, P3 recalled their speedy acceptance of terms, and the subsequent ascent in credit limits, “[I]f you’re not repaying the loan then they will take the legal action. They can also come to the home, and you have to pay a penalty of eight rupees per day... [Y]ou have to say okay to all these things. [...] After this, they will give you 500 (USD 7) rupees ￿rst. Once you repay, they will give you 1000 (USD 15) (and so on)."
訳抜け防止モード: 「申込書の提出を希望する場合は、これを義務づける。 一部は、小規模ローンのデフォルトの場合に、法的措置や訪問の可能性について同意したことを思い出した。 このような受け入れは、段階的に大きなクレジット制限を受けるための単なる形式と見なされた。 p3は、条件の迅速な受け入れを思い起こし、その後のクレジット制限の上昇は「 [i]f you’re paying the loan then they would take the legal action.」である。 家にも来れるし 1日8ルピーの罰金を払わなければなりません ... [y]これらのすべてのことには、大丈夫と言わなければなりません。 [[...] このあと 500ドル (usd 7 ) のルピーを返金します 1000 (usd 15 ) (その他) を与えます。
0.74
Quite naturally, our participants did not expect to negotiate the terms and conditions of instant loans. 当然のことながら、参加者は即時融資の条件や条件について交渉するつもりはない。 0.61
In fact, they believed that if they were being o￿ered money during a ￿nancially di￿cult time, they had an obligation to accept all the terms and conditions associated with the money. 実際、彼らは、もし彼らが、暗黙の期間に金に食われているなら、彼らは、その金に関連する条件と条件をすべて受け入れる義務があると考えた。 0.64
In addition, almost all our participants strongly believed that regardless of the terms and conditions, a loan once sought must be rightfully returned to its owner to ‘restore justice.’ Consequently, our participants assumed all responsibility for a loan borrowed, and frequently associated defaulting on loans with ideas of ‘cheating’ and ‘injustice’ to the lender. また、ほとんどすべての参加者は、条件や条件にかかわらず、一度求めたローンは正当に所有者に返却して「正義を回復する」必要があると強く信じており、その結果、参加者は借入のすべての責任を負い、貸し手への「不正」や「不正」という考え方でローンのデフォルト化を頻繁に引き受けた。 0.62
These ideas were also supported by participants’ cultural and religious beliefs. これらの思想は参加者の文化的・宗教的信念からも支持された。 0.57
P15 explained: “[I]f you intend to cheat somebody, you shouldn’t take a loan... P15は、こう説明している: “誰かを騙すつもりなら、ローンを取るべきではない。 0.69
If we have taken a loan, we must repay it correctly [...] [Else], we will face sazaa (punishment) from Allah. もし私たちが融資を受けたら、それを正しく返済しなければならない [...] [else]、私たちはアッラーからサザア(罰)に直面する。 0.78
" 5.2.2 Over-sharing sensitive data. " 5.2.2 過剰なデータ共有。 0.47
Several loan platforms also required access to users’ media and gallery, phone books, Whatsapp and Gmail contacts, location information, ￿nancial transaction texts, app usage analytics, and other device information. また、いくつかのローンプラットフォームは、ユーザーのメディアやギャラリー、電話帳、whatsappとgmailの連絡先、位置情報、シナンシャルトランザクションテキスト、アプリ利用分析、その他のデバイス情報へのアクセスを必要とした。 0.62
We found that our participants perceived sharing such data as tests of credibility. 参加者は信頼度テストとしてデータを共有することに気付きました。 0.62
For them, withholding data meant a lack of con￿dence in their own abilities to repay loans. 彼らにとって、データの保持は、ローンを返済する能力の欠如を意味した。 0.62
Attempting to borrow loans despite not being con￿dent was equivalent to ‘cheating’ loan platforms. ローンの貸し出しが不適切であるにもかかわらず、借入を試みようとするのは、‘ケッティング’ローンプラットフォームに相当した。 0.47
P16 explained, “It is okay if they collect information. P16は次のように説明している。 0.46
If I have an intention to cheat then I should be scared. もし浮気するつもりがあるなら、私は怖がるべきです。 0.55
[...] If I am willing to repay fairly, I need not be scared. もし私が公平に返済したいなら、恐れる必要はない。 0.45
" We also found that participants’ mental models of instant loans shaped their data-sharing practices in complex ways. Several participants expressed some discomfort sharing such data. Some associated sensitive data with ideas of ‘intimacy.’ As P15 put it, “If they are tracking where I’m going and what I’m doing, it’s like sharing my family background (colloquial: wife’s background) with them." 「また、参加者のインスタントローンのメンタルモデルが、複雑な方法でデータ共有の実践を形作っていることもわかりました。一部の参加者は、そのようなデータを共有することを不快に思っていました。「近親相姦」というアイデアに関連づけられたデータもいくつかあります。P15が言うように、「自分がどこへ行くのか、何をしているのかをトラッキングしているなら、家族の背景(口頭:妻の背景)を共有しているようなものです。」 0.60
Others discussed fears of misuse and online scams. 誤用やオンライン詐欺の恐れを論じる者もいた。 0.55
Yet, all participants had either already enabled permissions unknowingly, or showed willingness to do so. しかし、すべての参加者は無知の許可を既に許可していたか、あるいはそれを行う意志を示した。 0.62
P24 weighed her discomfort against the need for money and arrived at a compromise, “I got a thought that they will hack. p24は彼女のお金の必要性に対する不快感を重んじ、妥協案にたどり着いた。 0.50
But at that time money was important... [N]ow in home loan we pledge papers, in gold loan we pledge gold, in the same way digitally we have to pledge all our information. しかし、当時、お金は重要でした。 [n]ホームローンでは、書類を、金ローンでは、金は、デジタルと同様に、すべての情報を誓わなければなりません。 0.62
" Being used to models of lending and borrowing where trust in the exchange was facilitated through the value of pledged assets, our participants ‘pledged’ sensitive data as high-credibility collateral assets. 5.2.3 Making high fee payments. Instant loans came at high initial costs to participants. Platforms charged processing fees, disbursal fees, down-payments, often taking away 20-25% of loan amounts during disbursal. This was in addition to the high ￿oating interest rates (15 - 35%) and penalty charged by platforms. For P10, these high fees were small costs of the convenience during what were di￿cult times for her: “in case we don’t pay consecutively for a month, some charges are there, but I wouldn’t call it a disadvantage. When you are getting all these advantages that’s a common thing. That’s perfectly ￿ne." " Being used to models of lending and borrowing where trust in the exchange was facilitated through the value of pledged assets, our participants ‘pledged’ sensitive data as high-credibility collateral assets. 5.2.3 Making high fee payments. Instant loans came at high initial costs to participants. Platforms charged processing fees, disbursal fees, down-payments, often taking away 20-25% of loan amounts during disbursal. This was in addition to the high ￿oating interest rates (15 - 35%) and penalty charged by platforms. For P10, these high fees were small costs of the convenience during what were di￿cult times for her: “in case we don’t pay consecutively for a month, some charges are there, but I wouldn’t call it a disadvantage. When you are getting all these advantages that’s a common thing. That’s perfectly ￿ne."
訳抜け防止モード: 「貸し借りの模型」 交換に対する信頼は 誓約された資産の価値によって促進されました 参加者は機密データを高い信頼性の担保資産として「約束」した。 5.2.3 高手数料支払い インスタントローンは、参加者に高い初期費用を課した。 プラットフォームは処理手数料、支払い手数料、ダウン-支払い 返済時に20~25%の融資額をしばしば取り除くことがあり、高い利率(15~35%)に加えていた。 P10は、この高額な手数料は、彼女のためにダイアルト時間であった間の利便性の小さなコストであった。 1ヶ月連続して支払わない。 いくつか罪状がある しかし、私はそれを不利とは呼ばない。 これらすべてのメリットを手に入れる場合、それは一般的なことです。 それは完璧だ」と述べた。
0.72
In addition, participants discussed how repeatedly borrowing through the same platform easily o￿set such costs. さらに、参加者は、同じプラットフォームを通じて繰り返し借りるコストが、いかに簡単かについて議論した。 0.55
They received attractive bene￿ts like promotional codes, discounts, and better terms on new loans as rewards for their loyalty; these reciprocal exchanges were perceived as mutually bene￿cial by participants. 彼らは、プロモーション・コードや割引などの魅力的な受益金を受け取り、彼らの忠誠の報奨として新しいローンの条件を改良した。 0.55
Thus, several participants developed emotional attachments to loan platforms. このように、数人の参加者がローンプラットフォームへの感情的な愛着を発達させた。 0.33
P01’s emotional attachment nudged him towards safeguarding the interests of loan platforms through high fees, “I wouldn’t recommend this app to a person who doesn’t have intention to pay [high fees]... P01の感情的な愛着は、高額の手数料でローンプラットフォームの利益を守るよう、彼を説得した。
訳抜け防止モード: P01の感情的な愛着は、高額の手数料で融資プラットフォームの利益を守るよう彼に訴えた。 私はこのアプリを、[高額な]支払いをしない人にはお勧めしません。
0.72
That’s my, a little bit emotional attachment. それは私の、ちょっと感情的な愛着です。 0.64
[...] That’s how the [platform] will be able to give salary to their associates and the people supporting them. こうすることで、[プラットフォーム]は、仲間やサポートする人たちに給与を支払うことができるのです。 0.65
" 5.3 Dependence on Instant Loan Platforms FinTech companies often tout narratives of ￿nancial inclusion for ‘unbanked’ users through instant loans [5–7]. 5.3 インスタントローンプラットフォームへの依存 フィンテック企業は、instant loans (5-7]) を通じて、"アンバンク" ユーザに対するナンシャルインクルージョンの物語をしばしば伝えます。 0.65
We found that such inclusion came at the cost of participants’ dependence on loan platforms. このようなインクルージョンは、参加者がローンプラットフォームに依存するコストがかかっていることが分かりました。 0.47
Participants circumvented barriers to access loans, borrowed cyclically through loan platforms, tolerated abuse from predatory lenders, and shared responsibility for their negative experiences, potentially leading to their ￿nancial and technology exclusion. 参加者はローンへのアクセス障壁を回避し、融資プラットフォームを通じて周期的に借り入れ、捕食者からの虐待を許容し、負の体験に対する責任を共有した。 0.62
We 私たち 0.65
英語(論文から抽出)日本語訳スコア
How Platform-User Power Relations Shape Algorithmic Accountability プラットフォーム・ユーザ・パワー・リレーションシップのアルゴリズム・アカウンタビリティ 0.50
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
discuss these ￿ndings with the following codes: 以下のコードでこれらを議論する。 0.72
1) Circumventing algorithmic discrimination, 1)アルゴリズムによる差別の回避 0.75
2) Recurring debts, 3) Tolerating abuse, and 2)債務の返済 3)虐待の許容,及び 0.73
4) Assuming responsibility for loan platforms’ failures. 4)融資プラットフォームの失敗の責任を負うこと。 0.76
5.3.1 Circumventing algorithmic discrimination. 5.3.1 アルゴリズムによる差別の回避。 0.45
While instant loan apps are designed as single-user applications, we found evidence of intermediated use among our participants, as is commonly reported in previous research on technology-use in the Global South [12, 41, 72, 110]. インスタントローンアプリはシングルユーザーアプリケーションとして設計されているが、これまでのグローバル・サウス(12,41,72,110)の技術利用に関する調査でよく報告されているように、参加者の間で中間的利用の証拠が見つかった。 0.62
Participants sought the help of others, often immediate family members or trusted close friends, to download and navigate the apps, submit their applications, and manage payments. 参加者は、しばしばすぐに家族や信頼できる親しい友人の助けを求め、アプリをダウンロードしてナビゲートし、アプリケーションを提出し、支払いを管理した。 0.71
In some cases, we also found that participants attempted to borrow loans through others’ devices and pro￿les. いくつかのケースでは、参加者が他人のデバイスやプロールを通してローンを借りようとしたこともわかりました。
訳抜け防止モード: いくつかのケースでは 参加者は、他人のデバイスやプロールを通じてローンを借りようとした。
0.67
For instance, P10 borrowed through her husband’s phone after intuitively recognizing that instant loan limits could be in￿uenced by gender pay gap, and gendered patterns of digital activities. 例えば、p10は、インスタントローンの制限が性別の賃金格差やデジタルアクティビティの性別パターンによって無視される可能性があると直感的に認識した後、夫の電話を通して借りた。 0.59
She even suggested a friend to borrow through her husband’s phone saying, “Maybe our salary cycle is less and husbands’ salary cycles are more. 彼女は、ある友人に、夫の電話で借りるよう勧めた: “私たちの給与サイクルは少なく、夫の給与サイクルはもっと多いかもしれない。 0.69
And they have the credit cards and stu￿. そして彼らはクレジットカードとスタントを持っている。 0.62
Maybe it’s interlinked. リンクしているのかもしれない。 0.45
" While such stereotype reinforcement through ADS could be viewed as potential barriers to access, evoking strong reactions in the West [22], our participants did not perceive them so. In fact, they underscored the importance of reading intentions in attributing experiences to discrimination. P07 acknowledged that disparate treatment could lead to unfair outcomes, but asserted that instant loan platforms did not intentionally discriminate based on gender: “If they are giving less to women and more to men, it will not be correct. [...] But when it comes to loans, mostly they will give equal amounts to everybody." " While such stereotype reinforcement through ADS could be viewed as potential barriers to access, evoking strong reactions in the West [22], our participants did not perceive them so. In fact, they underscored the importance of reading intentions in attributing experiences to discrimination. P07 acknowledged that disparate treatment could lead to unfair outcomes, but asserted that instant loan platforms did not intentionally discriminate based on gender: “If they are giving less to women and more to men, it will not be correct. [...] But when it comes to loans, mostly they will give equal amounts to everybody."
訳抜け防止モード: 「ADSによるこのようなステレオタイプ強化は、アクセスの潜在的障壁と見なすことができる。 西方[22]で強い反応を起こす. P07は、差別的な治療が不公平な結果をもたらす可能性があることを認めたが、インスタントローンプラットフォームは、ジェンダーに基づいて意図的に差別をしていないと主張した。 女性や男性に多く与えている場合、それは正しくない。 しかし、融資に関して言えば、彼らはほとんど全員に平等な金額を与えるだろう」と述べた。
0.63
Our participants shared similar views towards other issues of algorithmic discrimination. 参加者は、アルゴリズム差別の他の問題に対する同様の見解を共有した。 0.52
P08, who identi￿ed as dark-skinned, talked about whitening their face digitally to get around potential intersectional accuracy disparities [26] in instant loan technology: “We could use ‘FaceApp’ to modify our looks. ダークスキンド(黒肌)と認識されたP08は、デジタル的に顔の白化について、インスタントローン技術における交差点の精度の相違[26]を回避しようとしている。
訳抜け防止モード: 肌の色が濃いと認識したP08が語った インスタントローン技術における交差点の精度格差を回避するために、デジタルで顔を白くする[26] FaceApp ’ を使ってルックを変更できます。
0.69
If they (loan platforms) are grand thieves, we are petty thieves. もし彼らが(ローン・プラットフォーム)大泥棒なら、私たちは小柄な泥棒です。 0.51
That is the only di￿erence. それが唯一のジレンスです。 0.67
" 5.3.2 Recurring debts. Instant loan platforms made borrowing money pleasurable for participants by o￿ering gami￿ed engagement. In addition to in-app discounts, surprise o￿ers and virtual coins that we discussed earlier, we found that some apps also gami￿ed credit limit increases; the platforms would ￿rst o￿er small amounts like INR 5,000-10,000 (USD 75-135); users would then ‘unlock’ higher credit limits when they neared their repayment terms, mimicking level-increases in virtual games. Some participants suspected that such gami￿ed mechanisms were recovery nudges in disguise. P7 with an outstanding loan of INR 10,000 (USD 135) noted, “Now that INR 2,00,000 (USD 2700) lock has opened up... I feel they opened the lock to show me that I will be eligible for a larger amount when I close this loan." " 5.3.2 Recurring debts. Instant loan platforms made borrowing money pleasurable for participants by o￿ering gami￿ed engagement. In addition to in-app discounts, surprise o￿ers and virtual coins that we discussed earlier, we found that some apps also gami￿ed credit limit increases; the platforms would ￿rst o￿er small amounts like INR 5,000-10,000 (USD 75-135); users would then ‘unlock’ higher credit limits when they neared their repayment terms, mimicking level-increases in virtual games. Some participants suspected that such gami￿ed mechanisms were recovery nudges in disguise. P7 with an outstanding loan of INR 10,000 (USD 135) noted, “Now that INR 2,00,000 (USD 2700) lock has opened up... I feel they opened the lock to show me that I will be eligible for a larger amount when I close this loan."
訳抜け防止モード: 「5.3.2 返済債務 borrowing~ エンゲージメントのオシャリングで参加者を喜ばせる。 in-アプリ割引に加えて。 さっき話した 驚きのオウアーズと バーチャルコインは 一部のアプリは信用限度を超過している InR 5,000 - 10,000 (USD 75 - 135 ) のような小額のプラットフォームは、返済条件に近づき、レベルを模倣して高額のクレジット制限を解除する。 何人かの被験者は、このようなカミシャイド機構は偽装の回復ナッジであると疑った。 P7はINR10,000(USD 135 )の巨額の融資を受けた。 INR 2,00,000 (USD 2700 ) のロックがオープン 門を開けた気がする この融資を完了したときには、もっと大きな金額を支払う資格がある」と述べた。
0.76
We found that these mechanisms, in addition to ready acceptances of instant loans by our participants, had led several of them to borrow beyond their capacity. これらのメカニズムは、参加者による即時融資の受け入れ準備が整ったことに加えて、一部の参加者がキャパシティを越えた借り入れにつながったことが分かりました。
訳抜け防止モード: これらのメカニズムに加えて,参加者によるインスタントローンの受け入れも可能であった。 幾人かは 能力以上の借りをしました
0.70
Such participants had then engaged in cyclical borrowing from several di￿erent apps to ‘balance’ their loans. 参加者はその後、複数のアプリから定期的な借り入れを行い、ローンのバランスを取っていた。 0.55
P23 had once gotten into an addictive rhythm of unlocking higher credit limits in the loan apps: “[Let’s say] we have cleared the ￿rst level, so it seems like they have con￿dence in us, and have automatically increased the limit. p23はかつて、ローンアプリで高いクレジット制限を解除するという中毒的なリズムに陥っていた。
訳抜け防止モード: P23は、ローンアプリの信用限度を高めるという中毒的なリズムに陥っていた です。 私たちはハーストレベルをクリアしました。 どうやら 私たちには コンデンスがあり 自動的に限界が増したようです
0.63
[...] I didn’t realize it then, and would end up accepting the loan in a hurry. [...]その時私は気づかなかったので、急いでローンを受け取りました。 0.53
[...] I would run here and there and borrow from friends to repay the loan. 私はこことそこを走り、ローンを返済するために友人から借りました。 0.63
[...] I would take a loan from another app to repay [[...]他のアプリから借りて返金します 0.49
the friend. I had loans from 4 apps at one point. 友人だ 私は一度に4つのアプリからローンを受け取りました。 0.56
" Other participants didn’t consider themselves ‘addicted’ to instant loans, but regretted cyclical borrowing. They justi￿ed recurring loans as unavoidable by-products of their ￿nancial vulnerability and social obligations. 5.3.3 Tolerating abuse. We also found evidence of abuse in our study. Through loan platforms, some participants fell prey to predatory lenders who employed aggressive recovery tactics for small amounts of money, as little as INR 2000 (USD 27). Their tactics included repeatedly harassing borrowers for repayments through calls and texts, issuing threats of legal action, broadcasting sensitive information to borrowers’ contacts on WhatsApp and other social media, shaming defaulters, targeted harassment of borrowers’ contacts, and home visits. Digital medium allowed predatory lenders to abuse borrowers at scale. For instance, lenders performed semantic association on borrowers’ contact lists to identify their close contacts (sometimes inaccurately) and harass them. Such tactics caused immense emotional and reputation harm to participants, and damaged their dignity. P4 encountered stigmatization in their social circles: “They contacted my friends and family through WhatsApp. They shared my photo and published my details saying I had taken loan and hadn’t repaid and started harassing them... Because of this I lost a lot of friends. I even had troubles with relatives. I ended up losing my job. [...] I was very upset but did not share it with anyone. At one point, I even tried to commit suicide." " Other participants didn’t consider themselves ‘addicted’ to instant loans, but regretted cyclical borrowing. They justi￿ed recurring loans as unavoidable by-products of their ￿nancial vulnerability and social obligations. 5.3.3 Tolerating abuse. We also found evidence of abuse in our study. Through loan platforms, some participants fell prey to predatory lenders who employed aggressive recovery tactics for small amounts of money, as little as INR 2000 (USD 27). Their tactics included repeatedly harassing borrowers for repayments through calls and texts, issuing threats of legal action, broadcasting sensitive information to borrowers’ contacts on WhatsApp and other social media, shaming defaulters, targeted harassment of borrowers’ contacts, and home visits. Digital medium allowed predatory lenders to abuse borrowers at scale. For instance, lenders performed semantic association on borrowers’ contact lists to identify their close contacts (sometimes inaccurately) and harass them. Such tactics caused immense emotional and reputation harm to participants, and damaged their dignity. P4 encountered stigmatization in their social circles: “They contacted my friends and family through WhatsApp. They shared my photo and published my details saying I had taken loan and hadn’t repaid and started harassing them... Because of this I lost a lot of friends. I even had troubles with relatives. I ended up losing my job. [...] I was very upset but did not share it with anyone. At one point, I even tried to commit suicide."
訳抜け防止モード: 他の参加者は、自らがインスタントローンに「中毒」しているとは考えませんでした。 しかし、繰り返し借り入れを後悔している。彼らは、繰り返し借り入れは避けられない ― 自己資本の脆弱性と社会的義務の産物である。 5.3.3 寛容な虐待。 融資プラットフォームを通じて、一部の参加者は、少量の資金のために積極的な回復戦略を採った捕食的融資業者を捕食した。 INR 2000 (USD 27 ) に限らず、彼らの戦術には、電話やテキストメッセージを通じて借り手の返済を何度も嫌がらせすることが含まれていた。 法的措置の脅威を発し、借り手の連絡先に機密情報をブロードキャストする。 デフォルト設定、借り手の連絡先の嫌がらせ、訪問などだ。 デジタル媒体は、貸主が大規模に借主を虐待することを許可している。例えば、借り手の連絡先リスト上でセマンティック・アソシエーションを行い、身近な連絡先を識別する(時には不正確なこともある)。 このような戦術は参加者に大きな感情と評判を害しました 彼らは私の友人や家族にWhatsAppを通じて連絡した。 彼らは私の写真を共有し、私が借りたと言った詳細を公表しました 返済を怠って嫌がらせを始めていたので、私は多くの友人を失った。 親戚にも困った。結局職を失った。 [...]私はとても腹を立てたが、誰とも共有しなかった。 自殺も試みた」と述べた。
0.66
Unfortunately, until December 2020, instant loan platforms had received little attention from the Reserve Bank of India (RBI). 残念ながら2020年12月まで、instant loan platformsはインド準備銀行(rbi)からほとんど注目されなかった。 0.68
Thus, several predatory loan platforms had ￿ourished, causing many borrowers to die by suicide [18]. こうして、複数の捕食ローンプラットフォームが混乱し、多くの借り手が自殺して死んだ[18]。 0.70
Our participants were aware of such risks; yet, very few were critical of the platforms. 参加者はそのようなリスクを認識していましたが、プラットフォームに批判的な人はごく少数でした。 0.50
Participants’ emotional attachments made it challenging for them to seek accountability from the platforms. 参加者の感情的な愛着は、プラットフォームから説明責任を求めることを困難にした。 0.57
P08 described the extent of vulnerability, “When we are unable to borrow from our friends, this loan app is helpful to us, just as a friend in need. p08は脆弱性の範囲を次のように説明している。 友人から借りられない場合、このローンアプリは、ちょうど必要な友人として、私たちにとって役に立ちます。
訳抜け防止モード: p08は脆弱性の範囲を記述した。 「友人から借りられないときは、このローンアプリは役に立ちます。」 必要な友人として
0.68
When we don’t even know where we can get money, this app decides automatically and at least grants us INR 1000 (USD 14). どこでお金が手に入るかさえわからなければ、このアプリは自動的に決定し、少なくともINR 1000(USD 14)を与えてくれる。 0.68
It does not see caste or religion or skin color. カーストや宗教、肌の色は見当たらない。 0.52
They simply believe us based on what we type (our data) [...]. 彼らは、私たちがタイプしたもの(私たちのデータ) [...] に基づいて私たちを信じるだけです。 0.61
So, we cannot ￿nd fault with the app. ですから、アプリに欠陥を負うことはできないのです。 0.61
[...] This app helps us when all others have abandoned us. このアプリは、他のみんなが私たちを捨てた時に役立つ。 0.71
" 5.3.4 Assuming responsibility for loan platforms’ failures. Our participants often viewed their negative experiences through the lenses of ‘incompetency’, and assigned self-blame for their experiences. Even if loan platforms were at fault, they were seemingly o￿ering loans with no asset requirements; therefore, any rule or tactic was justi￿able. P23, a survivor of abuse from a predatory loan platform re￿ected on their learnings: “I was very ￿rm about not availing app loans but since my friend suggested it I took it. [...] I did not think about whether we could repay the loan during di￿cult times. Corona has taught me a very good lesson." " 5.3.4 Assuming responsibility for loan platforms’ failures. Our participants often viewed their negative experiences through the lenses of ‘incompetency’, and assigned self-blame for their experiences. Even if loan platforms were at fault, they were seemingly o￿ering loans with no asset requirements; therefore, any rule or tactic was justi￿able. P23, a survivor of abuse from a predatory loan platform re￿ected on their learnings: “I was very ￿rm about not availing app loans but since my friend suggested it I took it. [...] I did not think about whether we could repay the loan during di￿cult times. Corona has taught me a very good lesson."
訳抜け防止モード: 「5.3.4 融資プラットフォームの責任を負うこと。 参加者は「非能力」のレンズを通して、ネガティブな経験をよく見ます。 ローンプラットフォームに障害があったとしても、自分自身に責任を負わせます。 彼らは資産要件のない融資を強引にしていたようで いかなるルールや戦術も、彼らの学習に基づいて再発見された捕食的融資プラットフォームからの虐待の生き残りであるジャスティエブル・P23であった。 しかし、友人が提案したように、私はそれを取りました。[...]私は、ダイカルト時代にローンを返済できるかどうか考えませんでした。 コロナは私にとても良い教訓を教えてくれた。
0.59
Other negative experiences included losing money to fake apps, or being rejected by loan platforms without due explanations. 他のネガティブな経験としては、偽アプリにお金を失うこと、あるいはローンプラットフォームから説明なしで拒絶されたことなどがある。
訳抜け防止モード: その他のネガティブな経験 偽アプリにお金を失うか ローンプラットフォームに 説明なしで拒絶されるか
0.69
Contrary to normative expectations of recourse, such negative technological experiences induced feelings of ‘shame’ in our participants who were less likely to share such experiences with their peers or seek help. このようなネガティブな技術的経験は、会話の規範的な期待とは対照的に、仲間とそのような経験を共有したり助けを求めたりすることの少ない参加者に「シェーム」の感情を誘発した。 0.57
In addition, participants’ ardent optimism in technology and a lack of con￿dence in their technical abilities often led them to assume unfair responsibility for their negative experiences. さらに、参加者のテクノロジーに対する熱心な楽観主義と、技術的能力の欠如により、ネガティブな経験に対して不公平な責任を負うことがしばしばあった。 0.67
P22 who was con￿dent about her creditworthiness blamed her lack of technical skills for an unexplained 彼女の信用力に腹を立てたp22は、説明できない人のために彼女の技術スキルの欠如を非難した 0.53
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Ramesh et al loan rejection: “Maybe I made some mistake while typing. Rameshら 融資拒否: “タイプ中に何か間違えたかもしれない。 0.43
Because if they look at my PAN card, they will de￿nitely give me a loan. なぜなら、彼らが私のPANカードを見ると、彼らはうっかり私にローンをくれるからです。 0.58
So I feel that there must be some kind of mistake that I made. ですから私は,私が犯した何らかの間違いがあるに違いないと感じています。 0.48
" Unfortunately, for participants with futuristic outlook on technology, negative experiences reinforced their beliefs that they would never be the intended audience for ‘high tech’ applications, resulting in technology abandonment. As P2 put it, the doors to an AI-powered future remained closed to them: “I felt that this gate had closed for me. I felt I shouldn’t go around and ask for money, or on these apps." 6 DISCUSSION Our work ￿lls a critical gap in the research on algorithmic accountability: we provide an understanding of social conditions of accountability through the experiences of (potentially) vulnerable users who are constrained in their capacity to seek accountability from technology providers. " Unfortunately, for participants with futuristic outlook on technology, negative experiences reinforced their beliefs that they would never be the intended audience for ‘high tech’ applications, resulting in technology abandonment. As P2 put it, the doors to an AI-powered future remained closed to them: “I felt that this gate had closed for me. I felt I shouldn’t go around and ask for money, or on these apps." 6 DISCUSSION Our work ￿lls a critical gap in the research on algorithmic accountability: we provide an understanding of social conditions of accountability through the experiences of (potentially) vulnerable users who are constrained in their capacity to seek accountability from technology providers.
訳抜け防止モード: 「あいにく、未来的な技術観を持つ参加者にとって、否定的な経験は、彼らが決して「ハイテク」なアプリケーションのために意図されたオーディエンスではないという信念を補強した。 テクノロジーの放棄に繋がるのです p2が言うように、ai駆動の未来への扉は彼らにとって閉ざされたままだった。 6 つの議論 私たちの仕事は、アルゴリズムによる説明責任の研究において重大なギャップをもたらす:我々は、(潜在的に)脆弱なユーザーの経験を通して、説明責任の社会的状況を理解する。 技術提供者による説明責任を求める能力に 制約されています
0.76
We situate these ￿ndings in the larger discourse on algorithmic accountability, and provide some suggestions for contextualizing the design of accountability mechanisms. アルゴリズム的説明責任に関するより広い談話において,これらの考察を位置づけ,説明責任機構の設計を文脈化するための提案を行う。 0.64
We conclude with implications of our work for the use of alternative data in FinTech applications in the Global South. 我々は、Global SouthにおけるFinTechアプリケーションにおける代替データの利用に関する作業の意義を結論付けている。 0.79
6.1 Examining Power Relations in Algorithmic 6.1 アルゴリズムにおける電力関係の検討 0.62
Accountability Current discourse on algorithmic accountability rests on the existence of accountability relationships between technology providers responsible for causing harm through ADS, and the individuals experiencing harm through ADS (or their representatives) [121]. 説明責任 アルゴリズム的説明責任に関する現在の議論は、ADS(またはその代表者)を介して損害を被る個人と、ADS(またはその代表者)を介して損害を被る個人との間の説明責任関係の存在に依存している[121]。 0.61
In this relationship, the technology providers are obligated to provide ‘accounts’ to the those individuals who are harmed [15, 96, 101, 123]; these individuals or their representatives may then judge the accounts and seek to impose consequences if necessary. この関係では、技術提供者は被害を受けた個人(15,96,101,123]に‘アカウント’を提供する義務がある。
訳抜け防止モード: この関係において、技術提供者は、その個人に「口座」を提供する義務がある。 15, 96, 101, 123] これらの個人又はその代表者は、アカウントを判断し、必要であれば結果を出すことができる。
0.63
Consequently, much work in algorithmic accountability often presents ‘sharing of information’ by technology providers as the ￿rst phase of accountability [53, 64, 89, 121]. その結果、アルゴリズムのアカウンタビリティにおける多くの作業は、しばしば技術提供者による'情報の共有'を、(53, 64, 89, 121] アーストフェーズとして示します。 0.59
Prior work calls for involving a￿ected individuals in designing accountability mechanisms to ensure that the information is meaningful to them [42, 75]. 事前の作業では、情報が彼らにとって意味のあるものであることを保証するために、説明責任の仕組みを設計すること(42, 75]。
訳抜け防止モード: 事前の作業は、保護された個人を巻き込むことを要求する 情報に意味があることを保証するために 説明責任機構を設計します [42, 75]
0.61
Our work extends this argument to show that purely technical approaches to accountability obscure the socio-political realities of stakeholders that make such ‘information sharing’ necessary in the ￿rst place. 我々の研究は、説明責任に対する純粋に技術的なアプローチが、そのような「情報共有」に必要な利害関係者の社会的・政治的現実を曖昧にしていることを示すために、この議論を拡張した。 0.46
In our study, exchanges enabled by AI-based instant loans recon￿gured users’ relations to instant loan platforms in ways that distract from the goals of algorithmic accountability. 我々の研究では、aiベースのインスタントローンによって実現される交換は、アルゴリズムによる説明責任の目標から遠ざかる方法で、ユーザのインスタントローンプラットフォームとの関係を再定義しました。 0.49
First, users were placed into positions of ‘indebtedness’ with loan platforms. まず、ユーザーはローンプラットフォームで‘負債’のポジションに置かれた。 0.69
Users in our study were largely ‘thin-￿le’ borrowers, making it di￿cult for them to secure loans from formal ￿nancial institutions. 調査のユーザは、ほとんどが‘thin-thele’な借入者で、公式なシナンシャル機関からの融資を確保している。
訳抜け防止モード: われわれの調査のユーザはおもに‘薄い’借り手だった。 公式の財務機関からの融資を 確保するのに役立ちます
0.62
They had primarily relied on informal loans for their borrowing needs, which had come with huge social costs to them. 彼らは主に借りる必要性のために非公式の融資を頼りにしていた。
訳抜け防止モード: 彼らは主に借用のために非公式の融資に頼っていた。 社会的に大きなコストがかかりました
0.62
Thus, instant loans, with seemingly no-collateral-requir ement, no-stringsattached were viewed as a huge ‘favor’ by users. したがって、一見無条件のように見えるインスタントローンは、ユーザーから巨大な‘フェイル’と見なされた。 0.42
Under users’ debt relationships with loan platforms, it was the users, rather than the platforms, who perceived obligations. ローンプラットフォームとユーザの債務関係の下では、義務を感じたのはプラットフォームではなく、ユーザでした。 0.69
Users ful￿lled these obligations in both material and intangible ways, and persisted despite human and other costs, such as abuse, discrimination, recurring debts, privacy harms, and self-harm to them. ユーザーはこれらの義務を具体的かつ無形の方法で満たし、虐待、差別、反復的負債、プライバシー侵害、自傷など、人間や他のコストにも拘わらず継続した。 0.64
Contrary to the normative behaviors of outrage in users documented from work in the West [101], users in our study did not believe it was in their right to 西方[101]で文書化されたユーザーの怒りの規範的行動とは対照的に、本研究のユーザは、それが彼らの権利であると信じていなかった。 0.67
question the terms and conditions of lenders. 融資者の条件や条件に 疑問を呈します 0.66
Instead, they assumed responsibility for their failures of loan platforms, thus demonstrating a dependence, and releasing those high-powered actors from the obligations of accountability. 代わりに、彼らはローンプラットフォームの失敗の責任を負い、従って依存を示し、高力のアクターを説明責任から解放した。 0.61
Thus, we argue that algorithmic accountability is mediated through platform-user power relations, and can be stymied by on-the-ground socio-political conditions of users. そこで,我々は,アルゴリズムによる説明責任はプラットフォームとユーザ間の力関係を通じて媒介され,利用者の社会的・政治的条件によって汚されると主張している。 0.54
Responsible development of AI cannot be universally achieved without paying close attention to these situated [114] power dynamics. AIの責任ある開発は、位置する[114]パワーダイナミクスに注意を払わなければ、普遍的に達成できない。 0.70
We need more research on the relationship between accountability mechanisms, agency of users, and the impetus for action in di￿erent socio-political contexts to ensure responsible AI more widely. 我々は、責任を負うAIをより広く確保するために、説明責任機構、ユーザエージェンシー、および希少な社会的政治的文脈における行動の衝動との関係に関するさらなる研究が必要である。 0.64
We build on the work of Katell et al [74], and propose a situated approach to algorithmic accountability.5 6.1.1 Enhancing agency of the forum through critical awareness. 我々は,katell et al [74] の研究を基礎として,批判的認識を通じて,フォーラムのアルゴリズム的説明責任に関するアプローチを提案する。 0.59
New internet users, with vastly di￿erent mental models of AI can place misguided trust in ADS [82, 93, 109]. 膨大な数のaiの精神モデルを持つ新しいインターネットユーザーは、広告に対する誤った信頼(82, 93, 109])をもたらすことができる。 0.57
Such high user-trust in AI systems played out in several ways in our study: ready acceptances of terms, conditions, and loan decisions, often to the extent of users reevaluating their own competencies and abilities. aiシステムにおけるこのような高いユーザ信頼は、いくつかの方法で研究された: 条件、条件、ローンの決定の適切な受け入れ、しばしばユーザーが自身の能力と能力を再評価する程度である。 0.65
However, design and research in user-centered AI often assumes low trust in AI, and begins with questions of ‘how might we design for increased user trust in AI’? しかし、ユーザー中心のAIにおける設計と研究は、しばしばAIに対する信頼度を低くする。
訳抜け防止モード: しかし、ユーザー中心のAIにおける設計と研究は、AIに対する信頼度を低くすることが多い。 AIへのユーザーの信頼を高めるために、どのように設計すればよいか?
0.69
Instead, designs must plan for appropriate failures assuming high-user trust in AI systems [14]. 代わりに、AIシステムへの高ユーザ信頼を前提として、設計は適切な失敗を計画する必要がある[14]。 0.56
Research must address questions such as decreasing user trust or increasing user distrust in AI systems. 研究は、AIシステムにおけるユーザ信頼の低下やユーザ不信の増大といった問題に対処する必要がある。 0.58
Further, we saw that users who bene￿ted from the instant loan applications developed deep emotional attachment towards these applications. さらに,instant loanアプリケーションから遠ざかるユーザは,これらのアプリケーションに対して深い感情的愛着がみられた。 0.74
This suggests that users’ mental models of AI systems must be calibrated appropriately and at regular intervals of use. これは、ユーザーのaiシステムのメンタルモデルが適切に、定期的な使用間隔で調整されなければならないことを示唆している。 0.50
On-boarding users to AI systems via guides may be a viable ￿rst step to align users’ mental models with AI systems [29]. ガイド経由のaiシステムへのユーザー参加は、ユーザのメンタルモデルとaiシステム(29])を連携させる上で有効なステップであるかもしれない。
訳抜け防止モード: ユーザーをガイド経由でAIシステムに搭乗することは、実現可能なハーストステップかもしれない ユーザーのメンタルモデルをAIシステムに合わせる[29]。
0.67
However, such measures must be complemented by widespread AI literacy programs. しかし、このような措置は幅広いAIリテラシープログラムによって補完されなければならない。 0.47
Trust and safety initiative for users in India by Google is one such example [66]. Googleによるインドユーザーの信頼と安全のイニシアチブは、[66]のような例だ。 0.77
More support must be given to grassroots organizations that are working to raise public awareness. 公衆の意識を高めるために作業している草の根組織に対して、より多くの支援をしなければならない。 0.42
An outstanding example is Internet Freedom Foundation’s Project Panoptic that is raising awareness on public-facing facial recognition systems in India [67]. internet freedom foundationのproject panopticは、インドの顔認識システムに対する意識を高めている[67]。
訳抜け防止モード: 注目すべき例は、Internet Freedom FoundationのProject Panopticだ。 インドでは、顔認識システムが公の場で認知度を高めている[67]。
0.70
Such e￿orts must be supported by programs that not only up-skill citizens to be AI designers, but also critical thinkers who can be AI testers and AI auditors. このようなエリートは、熟練した市民がAIデザイナになるだけでなく、AIテスタやAI監査官になれる批判的な思想家も支援しなければならない。 0.52
These initiatives can help recognize the largely invisible work of maintenance and repair involved in responsibly deploying AI [44]. これらのイニシアチブは、責任あるAI[44]のデプロイに関わる、ほとんど見えないメンテナンスと修復の作業を認識するのに役立つ。 0.58
6.1.2 Enabling meaningful transparency through collective spaces. 6.1.2 集合空間を通して有意義な透明性を実現する。 0.44
Transparency is a widely called for mechanism for accountability [8]. 透明性は説明責任のメカニズムとして広く呼ばれています [8]。 0.68
Making registries of datasets, models and processes available for public scrutiny [16, 59, 99] is a good ￿rst step. パブリックな精査のためにデータセット、モデル、プロセスのレジストリを作成する [16, 59, 99] は、非常によいステップです。 0.70
However, lack of technical expertise among the public could render such transparency meaningless. しかし、技術知識の欠如は、そのような透明性を無意味にする可能性がある。 0.50
Thus, corporate actors and governments must work with civil advocacy groups to create toolkits that consumer advocates can use towards accountability e￿orts. したがって、企業アクターや政府は民間の擁護団体と協力し、消費者アドボケートが説明責任のためのツールキットを作成する必要がある。 0.42
The Algorithmic Equity toolkit by ACLU Washington could serve as a model for such aims [74]. ACLU Washington の Algorithmic Equity ツールキットは,そのような目的 [74] のモデルとして機能する。 0.72
Further, for transparency to serve the goal of answerability, it must generate su￿cient pressure from the forum that forces actors to respond to violations. さらに、透明性が回答可能性の目標となるためには、行為者に違反に応答するよう強制するフォーラムからのスーシエントな圧力を発生させる必要がある。 0.60
When platform-user 5We use situated accountability di￿erently from that of Henriksen et al , who refer to the need for situating accountability policies in practices of designers’ and engineers working on the development of AI systems [62] プラットフォームユーザ5 私たちは、AIシステムの開発に取り組んでいるデザイナやエンジニアのプラクティスにおいて、説明責任ポリシーをシチュレートする必要性を言及するHenriksenらと断然異なる説明責任を使用している[62]。 0.72
英語(論文から抽出)日本語訳スコア
How Platform-User Power Relations Shape Algorithmic Accountability プラットフォーム・ユーザ・パワー・リレーションシップのアルゴリズム・アカウンタビリティ 0.50
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
relations are entrenched in power di￿erences, individual actions by vulnerable users may not be successful in large scale social changes [39, 78]. 関係は権力格差に絡み合っており、脆弱なユーザによる個々のアクションは、大規模な社会変革(39, 78])では成功しない可能性がある。 0.60
Therefore, we must go beyond transparency for individual users, and towards transparency of collective users. したがって、個々のユーザの透明性を越えて、集団ユーザの透明性を追求しなければならない。 0.69
One way to achieve this may be through designing spaces where vulnerable users can mobilize support towards demanding collective accountability. これを実現する1つの方法は、脆弱なユーザーが集団的説明責任を要求するためにサポートを動員できる空間を設計することである。
訳抜け防止モード: これを達成する一つの方法は 脆弱なユーザーが集団的説明責任を求めるためのサポートを動員できる空間を設計する。
0.64
Through our study, we saw that new internet users are often ashamed of their negative experiences, making it unlikely for them to share their experiences with other users o￿ine. われわれの調査によると、新しいインターネットユーザーは自分のネガティブな体験を恥じることが多く、他のユーザーと経験を共有することはありそうにない。 0.78
Anonymity provided by digital ecosystems can be leveraged to reduce such barriers for them. デジタルエコシステムが提供する匿名性は、それらの障壁を減らすために利用することができる。 0.59
Such a platform could also lead to normalization of negative experiences, leading to discourse and then political action. このようなプラットフォームは、ネガティブな経験の正規化にもつながり、会話や政治的行動につながる可能性がある。 0.60
Ahmed et al’s Protibadi [13], a system to mobilize support against sexual harassment in Bangaladesh, and Irani and Silberman’s Turkopticon [68] to invert requester-turk worker power relations are examples of intervention opportunities for researchers interested in algorithmic accountability. ahmed et al’s protibadi [13]、バンガレーシュにおけるセクシャルハラスメントに対する支援を動員するシステム、イランとシルバーマンのturkopticon [68]、要求者-ターク労働者の権力関係を逆転させるシステムは、アルゴリズム的説明責任に関心のある研究者にとって介入の機会の例である。
訳抜け防止モード: ahmed et al のprotibadi [13]は、バンガラデシュにおけるセクシャルハラスメントに対する支援を動員するシステムだ。 そしてイランとシルバーマンのturkopticon[68] to invert requester - turk worker power relationsは、アルゴリズム的説明責任に関心を持つ研究者にとっての介入の機会の例だ。
0.69
6.1.3 Re-configuring designer-user relations through community engagement. 6.1.3 コミュニティエンゲージメントによるデザイナ-ユーザ関係の再構成。 0.49
Algorithmic harms such as bias and discrimination are extensively studied in FAccT, and receive extensive attention especially in Western media [26, 61, 87, 123]. バイアスや差別などのアルゴリズム的害はFAccTで広く研究され、特に西洋メディアでは注目されている[26,61,87,123]。 0.69
However, we saw in our study that users accessing instant loans were undeterred by algorithmic discrimination. しかし,本研究では,インスタントローンの利用者はアルゴリズムによる差別の影響を受けないことがわかった。 0.58
Rather, they expressed signi￿cant concerns about alternate forms of harms from ADS systems such as data leaks, gossip in social circles from data leaks, reputation damage and social frictions. むしろ彼らは、データリーク、データリークからの社会サークルのゴシップ、評判のダメージ、社会的摩擦など、ADSシステムからの代替的な害に関する署名の懸念を表明した。 0.63
Prior work has already pointed to the need to re-contextualize harm measurements [109]. 以前の研究では既に、危害の測定を再コンテキスト化する必要性が指摘されていた [109]。 0.52
We extend this argument and draw on work by Metcalf et al to suggest that we must co-construct measurements of harms with the community of stakeholders involved [88]. この議論を拡張して、metcalf氏らによる作業を引き合いに出し、関与するステークホルダーのコミュニティとの害の計測を共同構築する必要があることを示唆します [88]。 0.62
While doing so, we must also recognize that a purely computation framing of harms fails to address injustices caused by structural oppression [63, 77]. それと同時に, 構造的抑圧による不当な問題に, 純粋に害の計算が対応できないことも認識しなければならない [63, 77]。 0.74
Such structural oppression is at the root of what has ‘excluded’ these individuals from technology spaces, and created designer-user binaries. このような構造的な抑圧は、これらの個人を技術分野から除外するルーツであり、デザイナとユーザの両方を創りだした。
訳抜け防止モード: このような構造的な抑圧は これらの個人を技術スペースから除外し、デザイナ - ユーザバイナリを作成した。
0.68
We therefore echo the calls made by scholars to recon￿gure these relations through design practices situated in community values [33]. そこで我々は,地域価値の高いデザイン実践を通じて,これらの関係を再構築する学者の呼びかけを反映している[33]。 0.63
Design Beku [104] is an excellent model for how this could be done. Design Beku [104]は、これを実現するための優れたモデルです。 0.83
6.1.4 Commi￿ing to justice through critical self-reflection. 6.1.4 批判的自己反射による正義への転換。 0.44
Users behaviors towards AI-based predatory applications including justi￿cation, tolerance, acceptance and self-blame led to extreme consequences such as abuse, reputation harm and self-harm. 正当性、寛容性、受け入れ、自己責めを含むAIベースの捕食的アプリケーションに対するユーザーの行動は、虐待、評判の害、自己害などの極端な結果をもたらした。 0.51
Such experiences are a violation of users’ privacy, and users’ right to dignity. このような体験は、ユーザーのプライバシーや尊厳に対する権利を侵害するものだ。 0.71
Thus, the ￿ndings in our study also point that responsible AI is a human rights’ issue. このように、我々の研究のオーディングは、責任あるAIは人権の問題であると指摘した。 0.66
What recourse mechanisms can we a￿ord to these users in the case of undergoing data leaks that are the equivalent of emotional harm? 感情的な害と同等のデータ漏洩が発生した場合、ユーザに対してどのようなレコメンデーションメカニズムを適用できますか? 0.72
Further, what recourse mechanisms can we a￿ord to these users when there is intentional reputation harm? さらに、意図的な評判の害がある場合には、ユーザに対してどのようなレコメンデーションメカニズムを適用できますか? 0.54
How far we can go in addressing human rights’ issues with technical interventions? 技術的な介入によって人権問題にどこまで対処できるのか? 0.71
What does accountability mean when predatory lenders create mobile applications with open-sourced machine learning algorithms and datasets, and slap a usable interface to prey on vulnerable users? 説明責任とは、捕食的融資者がオープンソースの機械学習アルゴリズムとデータセットを使ってモバイルアプリケーションを作成し、脆弱なユーザーを捕食するために使用可能なインターフェースをスラップするときに何を意味するのか? 0.55
Can our radical vision of democratizing AI hurt more than help? AIの民主化という急進的なビジョンは、助けよりも傷つきやすいのか? 0.56
What forms of accountability can be assumed when the tools we created land into the hands of malicious actors? 私たちが作成したツールが悪意あるアクターの手に入ると、どのような説明責任が想定できますか? 0.57
While we acknowledge that we do not have the answers to these large challenges, we believe critical re￿ection might be a good ￿rst step. 我々は、これらの大きな課題に対する答えを持っていないことを認めているが、批判的な再帰は良いステップだと信じている。 0.58
6.2 Implications for the use of Alternative Data 6.2 代替データの利用に関する意味 0.85
in FinTech Applications in India and Beyond インドやその先にある フィンテックのアプリケーションでは 0.46
‘Alternative lending’ uses mobile phone data to solve information asymmetry problems of lenders, who traditionally depend on tangible collateral assets [57]. 代替融資’は、携帯電話のデータを使って、伝統的に有形担保資産に依存する貸付業者の情報非対称性問題を解決する[57]。 0.67
Such models could also carry huge bene￿ts to borrowers: As we saw in our study, they could open up opportunities for users who have never been a part of formal ￿nancial systems. 私たちの研究で見たように、正式な財務システムの一部でなかったユーザに対して、そのようなモデルが大きな利益をもたらす可能性もあります。 0.60
These bene￿ts were especially signi￿cant to our participants given the economic challenges brought on by the COVID-19 pandemic. 新型コロナウイルス(COVID-19)のパンデミックによって引き起こされる経済的課題を考えると、この便益は参加者にとって特に痛手だった。 0.32
Unfortunately, alternative lending could also have extreme downsides; without regulation or rules to de￿ne the limits of what counts as ‘alternative data’, the judgements made based on these data are largely arbitrary. 残念なことに、代替融資には極端なマイナス面もある。規制や規制がなければ、‘代替データ’としてカウントされるものの限界を緩和することになり、これらのデータに基づいてなされる判断は、概ね任意である。 0.55
In addition, new internet users in the Global South (such as the users in our study), may overshare sensitive data in the name of high quality collateral assets to unveri￿ed platforms, risking privacy harms. さらに、グローバル・サウスにおける新しいインターネット・ユーザー(研究のユーザなど)は、プライバシー侵害のリスクを冒して、高品質な担保資産の名の下に機密データを過大に共有する可能性がある。 0.64
Current techniques around privacy, data rights and data sovereignty rarely account for data as collateral assets, calling for research to re-frame designs around privacy, safety and trust. プライバシ、データ権利、データ主権に関する現在の技術は、プライバシ、安全、信頼に関する設計を再構築する研究を求めるために、データを担保資産として扱うことはめったにない。 0.52
The harms of alternative credit often extend beyond the instance of decision-making. 代替信用の害はしばしば意思決定の事例を超えて広がる。 0.70
That is, data assets can themselves be elite resources [111], and are often the products of uneven social relations [38]. つまり、データ資産はそれ自体がエリートリソース[111]であり、しばしば不均一な社会的関係[38]の産物である。 0.75
For instance, loan platforms reproduced gender relations prevalent in economic and social spheres when women participants used their husbands’ phones to seek loans. 例えば、ローンプラットフォームは、女性の参加者が夫の携帯電話を使ってローンを求めるときに、経済や社会の領域で一般的な性関係を再現した。 0.54
If the goal of AI-based lending is to achieve equitable ￿nancial inclusion, we must account for such data disparities in our imaginations of AI systems. AIベースの貸与の目的が公平な財務的包摂を達成することだとすれば、私たちはAIシステムの想像力においてそのようなデータ格差を考慮しなければならない。 0.54
Further, data collection mechanisms may be predatory. さらに、データ収集機構は捕食性である。 0.74
Users in our study reported receiving ads on their phones even when they were unsuccessful with the apps, or several months after they had stopped using the apps. 調査のユーザは、アプリが失敗したときや、アプリの使用をやめた数か月後にも、携帯電話で広告を受け取ることを報告した。 0.76
While one could argue that such predatory mechanisms could be curtailed with better user privacy, we remind the reader that giving consent and accepting privacy policies were unparalleled obligations to ￿nancially stressed users in comparison to ‘instant’ cash. このような捕食的メカニズムは、ユーザープライバシーの改善によって制限される可能性があると論じることもできるが、私たちは読者に、同意とプライバシーポリシーを受け入れることは、‘インスタント’キャッシュと比較して、ユーザーを不当にストレスする義務であるということを思い出させる。
訳抜け防止モード: このような捕食メカニズムは、ユーザーのプライバシーが向上する可能性があると主張する人もいるだろう。 私たちは読者に 同意し プライバシーポリシーを受け入れ その義務は、‘即時’のキャッシュと比べて、ユーザーを不当にストレスにかけることにある。
0.57
New data privacy and consent models such as collective consent [107] may be viable options. 集団同意[107]のような新しいデータプライバシと同意モデルが有効な選択肢になるかもしれない。 0.68
As an immediate call-to-action, we urge designers to implement AI systems based on established industry practices [15, 96]. 即時対応として,既存の産業プラクティス [15,96] に基づいたAIシステムの実装を設計者に促します。 0.77
Such practices include sourcing data responsibly i.e., ensuring that users’ personally identifying information is protected at all times, preparing a data-maintenance plan for the life-cycle of the product, collecting routine user feedback, aligning feedback with model improvements, and communicating the value and time-to-impact to users, identifying factors that go into user trust, helping users calibrate their trust, calibrating trust through the product experience, and managing in￿uence on user decisions [15, 96, 111]. Such practices include sourcing data responsibly i.e., ensuring that users’ personally identifying information is protected at all times, preparing a data-maintenance plan for the life-cycle of the product, collecting routine user feedback, aligning feedback with model improvements, and communicating the value and time-to-impact to users, identifying factors that go into user trust, helping users calibrate their trust, calibrating trust through the product experience, and managing in￿uence on user decisions [15, 96, 111].
訳抜け防止モード: このようなプラクティスには、責任あるデータのソーシング、すなわち、ユーザの個人識別情報が常に保護されていることを保証することが含まれる。 データの準備 - ライフサイクルのメンテナンス計画 - 製品のサイクル。 定期的なユーザフィードバックの収集、モデルの改善によるフィードバックの整合。 ユーザに影響を与える価値と時間を伝えるのです。 ユーザーの信頼に影響を及ぼす要因を特定し ユーザーの信頼を調整します プロダクトエクスペリエンスを通じて信頼を調整し、ユーザ決定の不正さを管理する[15,96,111]。
0.66
We also call on designers to supplement these e￿orts with awareness campaigns on data and privacy rights for vulnerable users. また、弱いユーザーのためのデータとプライバシの権利に関する注意喚起キャンペーンを、デザイナーに補うよう呼びかけています。
訳抜け防止モード: デザイナーにも呼びかけます 脆弱なユーザーのためのデータとプライバシーの権利に関する、意識的なキャンペーンを補う。
0.64
Beyond these implications, our work opens up policy questions such as: How do we communicate the potential risks of ‘instant’ money to users in dire circumstances? こうした意味を超えて、我々の研究は政策上の疑問を提起している。 ひどい状況下で、どうやって「即時」なお金の潜在的なリスクをユーザーに伝えるのか? 0.55
What educational and ￿nancial aid would they need? どんな教育的援助を 必要としますか? 0.82
Who should assume responsibility? 誰が責任を負うべきか? 0.66
We believe these could be important future directions. これが将来の重要な方向だと信じています。 0.55
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Ramesh et al 7 CONCLUSION We presented a qualitative study of 29 ￿nancially-stressed users’ interactions with instant loan platforms in India. Rameshら 7 ConCLUSION インドにおけるインスタントローンプラットフォームとの相互作用について,29人を対象に質的研究を行った。 0.44
We reported on the perceptions of instant loan platforms among users, and their feelings of ‘indebtedness’ towards those platforms. われわれは、ユーザ間のインスタントローンプラットフォームに対する認識と、それらのプラットフォームに対する“不信感”について報告した。 0.58
We elaborated on the ways in which these users ful￿lled obligations, and enacted dependence on loan platforms. 我々は、これらのユーザが義務を履行し、ローンプラットフォームへの依存を実践する方法について詳しく説明した。
訳抜け防止モード: 私たちはこれらのユーザーが義務を果たす方法を詳しく説明した。 融資プラットフォームへの依存を 実現しました
0.56
By situating our ￿ndings in the algorithmic accountability discourse, we presented an argument that algorithmic accountability is mediated through platform-user power relations, and can be hindered by on-the-ground socio-political conditions of users. そこで我々は,アルゴリズム的説明責任談話の中で,アルゴリズム的説明責任はプラットフォームとユーザ間の力関係を通じて媒介され,利用者の社会的・政治的条件によって妨げられるという主張を提示した。 0.63
We proposed situated accountability interventions such as enhancing agency of the forum, enabling collective transparency, recon￿guring designer-user relations, and committing to critical self-re￿ection to ensure wider accountability. 我々は,フォーラムの機関の強化,総合的透明性の実現,デザイナーとユーザ関係の再考,そして,より広い説明責任を確保するために,批判的な自己修復にコミットするといった,立場の説明責任の介入を提案した。 0.47
We conclude with implications for FinTech applications in India and beyond. 我々は、FinTechのインド以降のアプリケーションに影響を及ぼすと結論付けている。 0.61
ACKNOWLEDGMENTS We thank Azhagu Meena S P for assisting with interviews, and Vinodkumar Prabhakaran, Nikola Banovic, Jane Im, Nel Escher and Anindya Das Antar for helpful feedback on this work. ACKNOWLEDGMENTS Azhagu Meena S P氏、Vinodkumar Prabhakaran氏、Nikola Banovic氏、Jane Im氏、Nel Escher氏、Anindya Das Antar氏によるインタビューの協力に感謝します。
訳抜け防止モード: ACKNOWLEDGMENTS Azhagu Meena S P氏へのインタビューに感謝します。 and Vinodkumar Prabhakaran, Nikola Banovic, Jane I m, Nel Escher そしてAnindya Das Antar氏は、この仕事について役立つフィードバックを求めている。
0.72
We also thank the reviewers at CHI’22 where a previous draft was ￿rst submitted, and the reviewers of FAccT for their helpful comments. また、前回の草案が提出されたCHI’22のレビュアーとFAccTのレビュアーにも、有益なコメントを頂いて感謝します。 0.56
Finally, we thank our participants who trusted us with their experiences; without them this research would have never been possible. 最後に、私たちの経験を信頼してくれた参加者に感謝します。
訳抜け防止モード: 最後に、私たちの経験を信頼してくれた参加者に感謝します。 彼らなしでは この研究は不可能でした
0.63
REFERENCES [1] 2021. 2021年 - 2021年。 0.49
Non-Banking Financial Company. https://www.rbi.org. in/Scripts/ 非銀行金融会社。 https://www.rbi.org. in/Scripts/ 0.46
com [5] 2022. という。 [5] 2022. 0.40
Kissht. https://kissht.com [6] 2022. キス! https://kissht.com [6] 2022。 0.48
KreditBee. https://www.kreditbe e.in/ [7] 2022. クレディットビー https://www.kreditbe e.in/ [7] 2022。 0.35
SmartCoin - Get Instant Credit. SmartCoin - インスタントクレジットを取得する。 0.82
https://smartcoin.co .in/ [8] Ashraf Abdul, Jo Vermeulen, Danding Wang, Brian Y Lim, and Mohan Kankanhalli. https://smartcoin.co .in/ [8] Ashraf Abdul, Jo Vermeulen, Danding Wang, Brian Y Lim, Mohan Kankanhalli 0.48
2018. Trends and trajectories for explainable, accountable and intelligible systems: An hci research agenda. 2018. 説明可能,説明可能,理解可能なシステムに関するトレンドと軌跡:hci研究アジェンダ 0.58
In Proceedings of the 2018 CHI conference on human factors in computing systems. 2018 chi conference on human factors in computing systemsの開催中である。 0.76
1–18. [9] Ada Lovelace Institute, AI Now Institute, and Open Government Partnership. 1–18. 9]Ada Lovelace Institute、AI Now Institute、Open Government Partnership。 0.50
2021. Algorithmic Accountability for the Public Sector. 2021. 公共部門のためのアルゴリズム的説明責任。 0.55
(2021). [10] Amina Adadi and Mohammed Berrada. (2021). 10] アミナ・アダディとモハメド・ベラダ 0.44
2018. Peeking inside the black-box: a survey on explainable arti￿cial intelligence (XAI). 2018. ブラックボックスの中を覗く:説明可能なアーティシカルインテリジェンス(XAI)に関する調査。 0.61
IEEE access 6 (2018), 52138– 52160. IEEE Access 6 (2018), 52138–52160。 0.78
[11] Sray Agarwal. [11]スレイ・アガルワール。 0.50
2020. AI powered FinTech: The drivers of Digital India. 2020. AIを駆使したFinTech: Digital Indiaのドライバー。 0.64
https: //indiaai.gov.in/art icle/ai-powered-￿ntech-the-drivers-of -digital-india https: /indiaai.gov.in/arti cle/ai-powered-ntech -the-drivers-of-digi tal-india 0.24
[12] Syed Ishtiaque Ahmed, Md Romael Haque, Shion Guha, Md Rashidujjaman Rifat, and Nicola Dell. 12]Syed Ishtiaque Ahmed、Md Romael Haque、Shion Guha、Md Rashidujjaman Rifat、Nicola Dell。
訳抜け防止モード: [12 ]Syed Ishtiaque Ahmed,Md Romael Haque,Shion Guha, Md Rashidujjaman RifatとNicola Dell。
0.37
2017. Privacy, security, and surveillance in the Global South: A study of biometric mobile SIM registration in Bangladesh. 2017. グローバル・サウスにおけるプライバシー、セキュリティ、監視:バングラデシュにおける生体認証モバイルsim登録に関する研究。 0.61
In Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems. 2017 CHI Conference on Human Factors in Computing Systems に参加して 0.72
906–918. [13] Syed Ishtiaque Ahmed, Steven J Jackson, Nova Ahmed, Hasan Shahid Ferdous, Md Rashidujjaman Rifat, ASM Rizvi, Shamir Ahmed, and Rifat Sabbir Mansur. 906–918. Syed Ishtiaque Ahmed, Steven J Jackson, Nova Ahmed, Hasan Shahid Ferdous, Md Rashidujjaman Rifat, ASM Rizvi, Shamir Ahmed, Rifat Sabbir Mansur。
訳抜け防止モード: 906–918. [13 ]Syed Ishtiaque Ahmed, Steven J Jackson, Nova Ahmed. Hasan Shahid Ferdous, Md Rashidujjaman Rifat, ASM Rizvi, Shamir Ahmed リファット・サビール・マンスール(Rifat Sabbir Mansur)。
0.63
2014. Protibadi: A platform for ￿ghting sexual harassment in urban Bangladesh. 2014. プロティバディ(Protibadi):バングラデシュの都市でセクシャルハラスメントを訴えるプラットフォーム。 0.58
In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. SIGCHI Conference on Human Factors in Computing Systems に参加して 0.69
2695–2704. 2695–2704. 0.35
[14] Saleema Amershi. [14]サリーマ・アメルシ。 0.45
2020. Toward Responsible AI by Planning to Fail. 2020. 失敗計画による責任あるAIを目指して 0.59
In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 第26回ACM SIGKDD国際知識発見・データマイニング会議に参加して 0.67
3607–3607. 3607–3607. 0.35
[15] Saleema Amershi, Dan Weld, Mihaela Vorvoreanu, Adam Fourney, Besmira Nushi, Penny Collisson, Jina Suh, Shamsi Iqbal, Paul N Bennett, Kori Inkpen, et al 2019. 15] Saleema Amershi, Dan Weld, Mihaela Vorvoreanu, Adam Fourney, Besmira Nushi, Penny Collisson, Jina Suh, Shamsi Iqbal, Paul N Bennett, Kori Inkpen, al 2019。 0.39
Guidelines for human-AI interaction. 人間とAIの相互作用に関するガイドライン。 0.56
In Proceedings of the 2019 chi conference on human factors in computing systems. 2019 chi conference on human factors in computing systemsの開催中である。 0.80
1–13. [16] Amsterdam. 1–13. [16]アムステルダム。 0.52
2020. Algorithmic Register Amsterdam. 2020. アムステルダムのアルゴリズム登録。 0.59
https://algoritmereg ister. https://algoritmereg ister.com/。 0.28
amsterdam.nl/en/ai-r egister/ amsterdam.nl/en/ai-r egister/ 0.11
FAQView.aspx? FAQView.aspx? 0.35
Id=92 https://www.dhani.co m/ Id=92 https://www.dhani.co m/ 0.40
[2] 2022. [2] 2022. 0.42
Dhani - India’s Trusted Site for Finance, Healthcare and Online Medicines. Dhani - インドの金融・医療・オンライン医療のための信託サイト。 0.81
[3] 2022. [3] 2022. 0.43
Five ways that AI augments FinTech. AIがFinTechを増強する5つの方法。 0.65
https://indiaai.gov. in/article/￿ve- https://indiaai.gov. in/article/sve- 0.15
ways-that-ai-augment s-￿ntech ways (複数形 wayss) 0.14
[4] 2022. [4] 2022. 0.43
Get line of credit up to Rs. 5 Lakhs - MoneyTap. クレジットはRs.5 Lakhs - MoneyTap。 0.51
https://www.moneytap . https://www.moneytap .com 0.26
[17] Mike Ananny and Kate Crawford. マイク・アニニーとケイト・クロウフォード。 0.56
2018. Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. 2018. 知ることなく見る:透明性の理想とそのアルゴリズム的説明責任への応用の限界。 0.59
new media & society 20, 3 (2018), 973–989. ニューメディア&ソサエティ 20, 3 (2018), 973-989。 0.72
[18] Varsha Bansal. ヴァラーシャ・バンサル(Varsha Bansal)。 0.54
2021. Shame, suicide and the dodgy loan apps plaguing Google’s Play Store. 2021. 恥、自殺、そしてgoogleのplay storeを悩ませる愚かなローンアプリ。 0.59
Wired UK (2021). イギリス(2021年)。 0.58
https://www.wired.co .uk/article/google-l oanapps-india-deaths https://www.wired.co .uk/article/google-l oanapps-india-deaths 0.11
[19] Alistair Barr. [19]アリステア・バー。 0.62
2015. Google Mistakenly Tags Black People as ‘Gorillas,’ Showing Limits of Algorithms. 2015. Google、黒人をアルゴリズムの限界を示す「ゴリラ」と誤ってタグ付け 0.53
Wall Street Journal (jul 2015). ウォールストリート・ジャーナル(2015年6月)。 0.63
https://www.wsj.com/ articles/BL-DGB-4252 2 https://www.wsj.com/ article/BL-DGB-42522 0.16
[20] Ruha Benjamin. ルハ・ベンジャミン[20] 0.52
2019. Race after technology: Abolitionist tools for the new jim 2019. テクノロジーの次のレース:新しいジムの廃止論者ツール 0.57
code. Social Forces (2019). コード 社会党(2019年)。 0.55
[21] Reuben Binns, Max Van Kleek, Michael Veale, Ulrik Lyngs, Jun Zhao, and Nigel Shadbolt. Reuben Binns氏、Max Van Kleek氏、Michael Veale氏、Ulrik Lyngs氏、Jun Zhao氏、Nigel Shadbolt氏。
訳抜け防止モード: [21]ルーベン・ビン、マックス・ヴァン・クリーク、マイケル・ヴェイル Ulrik Lyngs、Jun Zhao、Nigel Shadbolt。
0.68
2018. ’It’s Reducing a Human Being to a Percentage’ Perceptions of Justice in Algorithmic Decisions. 2018. アルゴリズムによる判断において、人間は正義に対するパーセンテージの認識に還元される。 0.51
In Proceedings of the 2018 Chi conference on human factors in computing systems. 2018 chi conference on human factors in computing systemsの開催中である。 0.79
1–14. [22] Tolga Bolukbasi, Kai-Wei Chang, James Y Zou, Venkatesh Saligrama, and Adam T Kalai. 1–14. [22]Tolga Bolukbasi、Kai-Wei Chang、James Y Zou、Venkatesh Saligrama、Adam T Kalai。 0.37
2016. Man is to computer programmer as woman is to homemaker? 2016. 男性はコンピュータープログラマーであり、女性はホームメイカーですか? 0.59
debiasing word embeddings. 単語の埋め込みを嫌う 0.56
Advances in neural information processing systems 29 (2016), 4349–4357. ニューラル情報処理システム29 (2016), 4349–4357。 0.65
[23] Danah Boyd and Kate Crawford. 23]ダナ・ボイドとケイト・クロフォード 0.56
2012. Critical questions for big data: Provocations for a cultural, technological, and scholarly phenomenon. 2012. ビッグデータに対する批判的疑問: 文化的、技術的、学術的な現象に対する挑発。 0.54
Information, communication & society 15, 5 (2012), 662–679. 情報・コミュニケーション・社会15, 5 (2012), 662–679。 0.73
[24] Virginia Braun and Victoria Clarke. 24] ヴァージニア・ブラウンと ビクトリア・クラーク 0.61
2012. Thematic analysis. 2012. テーマ分析。 0.51
(2012). [25] Anna Brown, Alexandra Chouldechova, Emily Putnam-Hornstein, Andrew Tobin, and Rhema Vaithianathan. (2012). Anna Brown氏、Alexandra Chouldechova氏、Emily Putnam-Hornstein氏、Andrew Tobin氏、Rhema Vaithianathan氏。 0.60
2019. Toward algorithmic accountability in public services: A qualitative study of a￿ected community perspectives on algorithmic decision-making in child welfare services. 2019. 公共サービスにおけるアルゴリズム的説明責任に向けて : 児童福祉サービスにおけるアルゴリズム的意思決定に関するコミュニティ視点の質的研究 0.60
In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems. 2019 chi conference on human factors in computing systemsの開催中である。 0.72
1–12. [26] Joy Buolamwini and Timnit Gebru. 1–12. 26]joy buolamwiniとtimnit gebru。 0.32
2018. Gender shades: Intersectional accuracy disparities in commercial gender classi￿cation. 2018. ジェンダーシェード: 商業性分類における間欠的精度の違い。 0.54
In Conference on fairness, accountability and transparency. 公正性、説明責任、透明性に関する会議。 0.62
PMLR, 77–91. PMLR,77-91。 0.65
[27] Jenna Burrell. ジェナ・バレル(Jenna Burrell)。 0.53
2016. How the machine ‘thinks’: Understanding opacity in machine learning algorithms. 2016. マシンの考え方: 機械学習アルゴリズムにおける不透明性を理解すること。 0.59
Big Data & Society 3, 1 (2016), 2053951715622512. Big Data & Society 3, 1 (2016), 2053951715622512。 0.75
[28] CAC. 2021. CAC[28]。 2021. 0.36
Internet Information Service Algorithm Recommendation Management Regulations. インターネット・インフォメーション・サービスのアルゴリズム・レコメンデーション・マネジメント・レギュレーション。 0.45
http://www.cac.gov.c n/2021-08/27/c_16316 52502874117.htm. 2021-08/27/c_1631652 5074117.htm。 0.14
[29] Carrie J Cai, Samantha Winter, David Steiner, Lauren Wilcox, and Michael Terry. 29]キャリー・j・ケイ、サマンサ・ウィンター、デヴィッド・ステインナー、ローレン・ウィルコックス、マイケル・テリー。 0.54
2019. " Hello AI": Uncovering the Onboarding Needs of Medical Practitioners for Human-AI Collaborative Decision-Making. 2019. 「ハローAI」 : 人間とAIの協調意思決定のための医療実践者の装着ニーズを明らかにする。 0.50
Proceedings of the ACM on Human-computer Interaction 3, CSCW (2019), 1–24. ACM on Human-Computer Interaction 3, CSCW (2019), 1–24。 0.39
[30] Diogo V Carvalho, Eduardo M Pereira, and Jaime S Cardoso. [30]Diogo V Carvalho、Eduardo M Pereira、Jaime S Cardoso。 0.32
2019. Machine learning interpretability: A survey on methods and metrics. 2019. 機械学習の解釈可能性: 方法とメトリクスに関する調査。 0.61
Electronics 8, 8 (2019), 832. 第8巻(2019年)、832頁。 0.46
[31] Husanjot Chahal, Sara Abdulla, Jonathan Murdick, and Ilya Rahkovsky. 31] チャハル、サラ・アブドゥラ、ジョナサン・ムルディック、イリヤ・ラーコフスキー 0.57
2021. Mapping India’s AI Potential. 2021. インドのAIの可能性のマッピング。 0.58
Technical Report. [32] C Chausson. 技術報告。 [32]C チョウソン。 0.55
2016. France opens the source code of tax and bene￿ts calculators 2016. フランス、税法とベネッツ電卓のソースコードを公開 0.56
to increase transparency. the worlds we need. 透明性を高めます 我々が必要とする世界 0.77
[33] Sasha Costanza-Chock. [33]サーシャ・コスタンザ・チョック。 0.43
2020. Design justice: Community-led practices to build 2020. デザインジャスティス: コミュニティ主導のプラクティスの構築 0.58
[34] Aman Dalmia, Jerome White, Ankit Chaurasia, Vishal Agarwal, Rajesh Jain, Dhruvin Vora, Balasaheb Dhame, Raghu Dharmaraju, and Rahul Panicker. Aman Dalmia, Jerome White, Ankit Chaurasia, Vishal Agarwal, Rajesh Jain, Dhruvin Vora, Balasaheb Dhame, Raghu Dharmaraju, Rahul Panicker。
訳抜け防止モード: 34 ] アマン・ダルミア、ジェローム・ホワイト、アンキット・シャウラシア vishal agarwal, rajesh jain, dhruvin vora, balasaheb dhame, ラグ・ダルマラージュ(raghu dharmaraju)とラウル・パニックカー(rahul panicker)。
0.62
2020. Pest Management In Cotton Farms: An AI-System Case Study from the Global South. 2020. 綿花畑における害虫管理 : 世界南部におけるAIシステムケーススタディ 0.60
In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 第26回ACM SIGKDD国際知識発見・データマイニング会議に参加して 0.67
3119–3127. 3119–3127. 0.35
[35] Nicholas Diakopoulos. ニコラス・ディアコポロス(Nicholas Diakopoulos)。 0.58
2015. Algorithmic accountability: Journalistic investigation of computational power structures. 2015. アルゴリズム的説明可能性: 計算力構造のジャーナリズム的な研究。 0.48
Digital journalism 3, 3 (2015), 398–415. デジタル・ジャーナリズム3号(2015年)、398-415頁。 0.61
[36] Nicholas Diakopoulos. ニコラス・ディアコプーロス(Nicholas Diakopoulos) 0.59
2017. Enabling accountability of algorithmic media: transparency as a constructive and critical lens. 2017. アルゴリズムメディアのアカウンタビリティの実現: 建設的かつ批判的なレンズとしての透明性 0.54
In Transparent data mining for Big and Small Data. 大型・小型データのための透明データマイニング 0.65
Springer, 25–43. スプリンガー、25-43。 0.48
[37] Nicholas Diakopoulos and Michael Koliska. ニコラス・ディアコプーロスとマイケル・コリスカ。 0.44
2017. Algorithmic transparency in 2017. アルゴリズムの透明性 0.62
the news media. Digital journalism 5, 7 (2017), 809–828. ニュースメディア。 デジタルジャーナリズム5、7(2017年)、809-828。 0.63
[38] Catherine D’ignazio and Lauren F Klein. 38] キャサリン・ディニャシオと ローレン・f・クライン 0.42
2020. Data feminism. 2020. データフェミニズム。 0.52
MIT press. [39] Paul Dourish. MITの記者。 [39]ポール・ドゥーリッシュ 0.67
2010. HCI and environmental sustainability: the politics of design and the design of politics. 2010. hciと環境持続可能性: デザインの政治と政治のデザイン。 0.55
In Proceedings of the 8th ACM conference on designing interactive systems. 第8回対話型システムを設計するACMカンファレンスの開催。 0.71
1–10. [40] Julia Dressel and Hany Farid. 1–10. 40] ジュリア・ドレッテルと ハニー・ファリッド 0.41
2018. The accuracy, fairness, and limits of predict- 2018. 予測の正確性、公平性、限界- 0.61
ing recidivism. ing recidivismの略。 0.29
Science advances (2018). 科学史(2018年)。 0.51
[41] Michaelanne Dye, David Nemer, Laura R Pina, Nithya Sambasivan, Amy S Bruckman, and Neha Kumar. [41] ミカラン染料、デビッド・ネマー、ローラ・ル・ピナ、ニティヤ・サンバシバン、エイミー・ス・ブルックマン、ネハ・クマール
訳抜け防止モード: 41] ミカラン染料 デビッド・ネマー ローラ・ル・ピナ nithya sambasivan、amy s bruckman、neha kumar。
0.48
2017. Locating the Internet in the Parks of Havana. 2017. ハバナの公園でインターネットを 見つけました 0.48
In Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems. 2017 CHI Conference on Human Factors in Computing Systems に参加して 0.72
3867–3878. 3867–3878. 0.35
[42] Upol Ehsan, Q Vera Liao, Michael Muller, Mark O Riedl, and Justin D Weisz. Upol Ehsan氏、Q Vera Liao氏、Michael Muller氏、Mark O Riedl氏、Justin D Weisz氏。 0.35
2021. Expanding explainability: Towards social transparency in ai systems. 2021. 説明可能性の拡大:aiシステムの社会的透明性に向けて。 0.51
In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems. 2021 CHI Conference on Human Factors in Computing Systems に参加して 0.71
1–19. [43] Upol Ehsan, Samir Passi, Q Vera Liao, Larry Chan, I Lee, Michael Muller, Mark O Riedl, et al 2021. 1–19. [43] Upol Ehsan, Samir Passi, Q Vera Liao, Larry Chan, I Lee, Michael Muller, Mark O Riedl, et al 2021。
訳抜け防止モード: 1–19. 43] ウコール・エーサン、サミル・パッシ、q・ベラ・リアオ、 ラリー・チャン リー マイケル・ミュラー マーク・オ・リーデル 2021年。
0.42
The Who in Explainable AI: How AI Background Shapes Perceptions of AI Explanations. who in explainable ai: aiの背景がaiの説明に対する認識をどのように形作るか。 0.54
arXiv preprint arXiv:2107.13509 (2021). arxiv プレプリント arxiv:2107.13509 (2021) 0.45
英語(論文から抽出)日本語訳スコア
How Platform-User Power Relations Shape Algorithmic Accountability プラットフォーム・ユーザ・パワー・リレーションシップのアルゴリズム・アカウンタビリティ 0.50
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
for pensioners. [44] MC Elish and EA Watkins. 年金担当。 [44]mc・エリッシュとea・ワトキンス 0.51
2020. Repairing innovation: A study of integrating 2020. イノベーションの修復:統合に関する研究 0.61
AI in clinical care. 臨床医療におけるAI。 0.68
Unpublished Manuscript (2020). 未発表(2020年)。 0.32
[45] Isil Erel, Lea H Stern, Chenhao Tan, and Michael S Weisbach. Isil Erel氏、Lea H Stern氏、Chenhao Tan氏、Michael S Weisbach氏。 0.31
2018. Could machine learning help companies select better board directors? 2018. 機械学習は、企業がより良い取締役を選ぶのに役立つか? 0.50
Harvard Business Review 1, 5 (2018). ハーバード・ビジネス・レビュー1号(2018年)。 0.43
[46] Nel Escher and Nikola Banovic. ネル・エッシャーとニコラ・バノヴィッチ 0.32
2020. Exposing Error in Poverty Management Technology: A Method for Auditing Government Bene￿ts Screening Tools. 2020. 貧困管理技術におけるエラーの露呈: 政府のベネオッツスクリーニングツールの監査方法。 0.58
Proceedings of the ACM on Human-Computer Interaction 4, CSCW1 (2020), 1–20. acm on human-computer interaction 4, cscw1 (2020), 1~20。 0.69
[47] Motahhare Eslami, Aimee Rickman, Kristen Vaccaro, Amirhossein Aleyasen, Andy Vuong, Karrie Karahalios, Kevin Hamilton, and Christian Sandvig. [47]Motahhare Eslami, Aimee Rickman, Kristen Vaccaro, Amirhossein Aleyasen, Andy Vuong, Karrie Karahalios, Kevin Hamilton, Christian Sandvig。
訳抜け防止モード: [47 ]Motahhare Eslami, Aimee Rickman, Kristen Vaccaro, Amirhossein Aleyasen, Andy Vuong, Karrie Karahalios, Kevin Hamilton クリスチャン・サンドヴィヒとも。
0.76
2015. " I always assumed that I wasn’t really that close to [her]" 2015. 「私はいつもあまり親しくなかったと仮定した.」 0.45
Reasoning about Invisible Algorithms in News Feeds. ニュースフィードにおける可視性アルゴリズムの推論 0.70
In Proceedings of the 33rd annual ACM conference on human factors in computing systems. 第33回コンピュータシステムにおけるヒューマンファクターに関する年次ACM会議の開催報告 0.71
153–162. [48] Motahhare Eslami, Kristen Vaccaro, Min Kyung Lee, Amit Elazari Bar On, Eric Gilbert, and Karrie Karahalios. 153–162. [48]Motahhare Eslami, Kristen Vaccaro, Minkyung Lee, Amit Elazari Bar On, Eric Gilbert, Karrie Karahalios。
訳抜け防止モード: 153–162. [48]モタヒア・エスラミ、クリステン・ヴァッカロ、ミン・キュン・リー アミット・エラザリ・バーオン、エリック・ギルバート、キャリー・カラハリオス。
0.38
2019. User attitudes towards algorithmic opacity and transparency in online reviewing platforms. 2019. オンラインレビュープラットフォームのアルゴリズム不透明性と透明性に対するユーザの態度 0.56
In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems. 2019 chi conference on human factors in computing systemsの開催中である。 0.72
1–14. [49] ET Goverment. 1–14. [49]ET Goverment。 0.34
2021. Odisha launches AI based online life certi￿cate system 2021. odishaがaiベースのオンラインライフサーチケートシステムをローンチ 0.52
[50] Virginia Eubanks. バージニア・ユーバンクス(Virginia Eubanks) 0.54
2018. Automating inequality: How high-tech tools pro￿le, police, 2018. 不平等の自動化:ハイテクツールがいかに広まるか、警察 0.55
and punish the poor. 貧しい人を罰するのです 0.63
St. Martin’s Press. st. martin’s pressの略。 0.55
[51] Simson Gar￿nkel, Jeanna Matthews, Stuart S Shapiro, and Jonathan M Smith. 51]シムソン・ガルンケル、ジャンナ・マシューズ、スチュアート・シャピロ、ジョナサン・m・スミス。 0.44
2017. Toward algorithmic transparency and accountability. 2017. アルゴリズムの透明性と説明責任に向けて 0.52
[52] Susan Wharton Gates, Vanessa Gail Perry, and Peter M Zorn. 52]スーザン・ウォートン・ゲイツ、ヴァネッサ・ゲイル・ペリー、ピーター・m・ゾーン 0.66
2002. Automated underwriting in mortgage lending: Good news for the underserved? 2002. ローン融資における自動引受--未払い者にとって朗報? 0.49
Housing Policy Debate 13, 2 (2002), 369–391. 住宅政策論争13件(2002年)、369-391件。 0.71
[53] Timnit Gebru, Jamie Morgenstern, Briana Vecchione, Jennifer Wortman Vaughan, Hanna Wallach, Hal Daumé Iii, and Kate Crawford. Timnit Gebru氏、Jamie Morgenstern氏、Briana Vecchione氏、Jennifer Wortman Vaughan氏、Hanna Wallach氏、Hal Daumé Iii氏、Kate Crawford氏。
訳抜け防止モード: [53 ]Timnit Gebru, Jamie Morgenstern, Briana Vecchione, Jennifer Wortman Vaughan, Hanna Wallach, Hal Daumé Iii そしてケイト・クロフォード。
0.80
2021. Datasheets for datasets. 2021. データセット用のデータシート。 0.50
Commun. ACM 64, 12 (2021), 86–92. 共産。 ACM 64, 12 (2021), 86-92。 0.61
[54] Tarleton Gillespie. [54] タールトン・ギレスピー 0.65
2014. The relevance of algorithms. 2014. アルゴリズムの関連性。 0.53
Media technologies: Essays メディア技術:エッセイ 0.75
on communication, materiality, and society 167, 2014 (2014), 167. コミュニケーション、物質性、社会について 167, 2014 (2014), 167。 0.75
[55] Leilani H Gilpin, David Bau, Ben Z Yuan, Ayesha Bajwa, Michael Specter, and Lalana Kagal. 55] Leilani H Gilpin氏、David Bau氏、Ben Z Yuan氏、Ayesha Bajwa氏、Michael Specter氏、Lalana Kagal氏。 0.83
2018. Explaining explanations: An overview of interpretability of machine learning. 2018. 説明説明: 機械学習の解釈可能性の概要。 0.59
In 2018 IEEE 5th International Conference on data science and advanced analytics (DSAA). 2018年、IEEE 5th International Conference on Data Science and Advanced Analytics (DSAA)が開催された。 0.71
IEEE, 80–89. IEEE 80-89。 0.42
[56] Government of Tamil Nadu. [56]タミル・ナドゥの行政。 0.51
2020. Tamil Nadu Safe and Ethical Arti￿cial Intelli- 2020. タミル・ナードゥの安全と倫理的知性- 0.45
gence Policy. Technical Report. ジェンス政策。 技術報告。 0.51
[57] Darrell Grissen et al 2019. 57] Darrell Grissen et al 2019。 0.36
Behavior Revealed in Mobile Phone Usage Predicts 携帯電話利用予測で明らかになった行動 0.72
Loan Repayment. Technical Report. ローン返済。 技術報告。 0.49
arXiv. org. [58] Varun Gulshan, Lily Peng, Marc Coram, Martin C Stumpe, Derek Wu, Arunachalam Narayanaswamy, Subhashini Venugopalan, Kasumi Widner, Tom Madams, Jorge Cuadros, et al 2016. arXiv。 と。 Varun Gulshan, Lily Peng, Marc Coram, Martin C Stumpe, Derek Wu, Arunachalam Narayanaswamy, Subhashini Venugopalan, Kasumi Widner, Tom Madams, Jorge Cuadros, al 2016 0.36
Development and validation of a deep learning algorithm for detection of diabetic retinopathy in retinal fundus photographs. 網膜眼底写真における糖尿病網膜症検出のための深層学習アルゴリズムの開発と検証 0.85
Jama 316, 22 (2016), 2402–2410. ジャマ316, 22 (2016), 2402–2410。 0.81
[59] M Haataja, L van de Fliert, and P Rautio. 59]M Haataja, L van de Fliert, P Rautio。 0.30
2020. Public AI Registers: Realising AI 2020. パブリックAI登録:AIの実現 0.57
transparency and civic participation in government use of AI. AIの政府利用における透明性と市民参加。 0.78
(2020). [60] Alexa Hagerty and Igor Rubinov. (2020). 60]alexa hagertyとigor rubinov。 0.46
2019. Global AI ethics: a review of the social impacts and ethical implications of arti￿cial intelligence. 2019. global ai ethics: 芸術的知性の社会的影響と倫理的影響のレビュー。 0.54
arXiv preprint arXiv:1907.07892 (2019). arXiv preprint arXiv:1907.07892 (2019)。 0.76
[61] Sara Hajian, Francesco Bonchi, and Carlos Castillo. [61]サラ・ハジアン、フランチェスコ・ボンチ、カルロス・カスティーリョ。 0.56
2016. Algorithmic bias: From discrimination discovery to fairness-aware data mining. 2016. アルゴリズムバイアス:識別発見から公正なデータマイニングまで。 0.55
In Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining. 第22回知識発見・データマイニング国際会議(acm sigkdd international conference on knowledge discovery and data mining)に出席。 0.58
2125–2126. 2125–2126. 0.35
[62] Anne Henriksen, Simon Enni, and Anja Bechmann. [62]アン・ヘンリクセン、サイモン・エンニ、アンジャ・ベクマン 0.51
2021. Situated accountability: Ethical principles, certi￿cation standards, and explanation methods in applied AI. 2021. Situated Accountability: 倫理原則、認証基準、応用AIにおける説明方法。 0.56
In Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society. 2021年、AI、倫理、社会に関するAAAI/ACM会議を開催。 0.69
574–585. [63] Anna Lauren Ho￿mann. 574–585. アンナ・ローレン・ホイマンです 0.40
2019. Where fairness fails: data, algorithms, and the limits of antidiscrimination discourse. 2019. 公正さが失敗した場合、データ、アルゴリズム、および反差別的言説の限界である。 0.50
Information, Communication & Society 22, 7 (2019), 900–915. information, communication & society 22, 7 (2019), 900–915。 0.41
[64] Ben Hutchinson, Andrew Smart, Alex Hanna, Emily Denton, Christina Greer, Oddur Kjartansson, Parker Barnes, and Margaret Mitchell. Ben Hutchinson氏、Andrew Smart氏、Alex Hanna氏、Emily Denton氏、Christina Greer氏、Oddur Kjartansson氏、Parker Barnes氏、Margaret Mitchell氏。 0.72
2021. Towards accountability for machine learning datasets: Practices from software engineering and infrastructure. 2021. 機械学習データセットの説明責任に向けて: ソフトウェアエンジニアリングとインフラストラクチャの実践。 0.60
In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. 2021年 ACM Conference on Fairness, Accountability, and Transparency に参加して 0.74
560–575. [65] ICF IIPS. 560–575. icf iips (複数形 icf iips) 0.35
2017. India National Family Health Survey NFHS-4 2015–16. 2017. インド国民健康調査(NFHS-4 2015–16)。 0.53
Mumbai: [66] Google India. ムンバイ 66] Google India。 0.31
2022. Helping users stay safe online. 2022. オンラインの安全を守ること。 0.50
https://forindia.wit hgoogle. https://forindia.wit hgoogle.com。 0.52
[67] Internet Freedom Foundation. インターネット・フリーダム財団が設立。 0.49
[n.d.]. Project Panoptic: Facial Recognition Sys- [n.d.] プロジェクト・パノプティクス:顔認識技術- 0.55
IIPS and ICF (2017). ips と icf (2017)。 0.59
com/intl/en/trust-an d-safety/ com/intl/en/trust-an d-safety/ 0.09
tems in India. [68] Lilly C Irani and M Six Silberman. インドに駐在する。 68]Lilly C IraniとM Six Silberman。 0.45
2013. Turkopticon: Interrupting worker invisibility in amazon mechanical turk. 2013. turkopticon: amazon mechanical turkのworker invisibilityを中断する。 0.66
In Proceedings of the SIGCHI conference on human factors in computing systems. In Proceedings of the SIGCHI Conference on Human Factor in Computing Systems 0.35
611–620. [69] Mohammad Hossein Jarrahi, Gemma Newlands, Min Kyung Lee, Christine T Wolf, Eliscia Kinder, and Will Sutherland. 611–620. Mohammad Hossein Jarrahi, Gemma Newlands, Minkyung Lee, Christine T Wolf, Eliscia Kinder, Will Sutherland。
訳抜け防止モード: 611–620. [69 ]Mohammad Hossein Jarrahi, Gemma Newlands, Minkyung Lee, クリスティーヌ・ト・ウルフ、エリシア・キンダー、ウィル・サザランド。
0.55
2021. Algorithmic management in a work context. 2021. 作業コンテキストにおけるアルゴリズム管理。 0.61
Big Data & Society 8, 2 (2021), 20539517211020332. Big Data & Society 8, 2 (2021), 20539517211020332。 0.75
[70] Maria K, Styliani Kleanthous, Pınar Barlas, and Jahna Otterbacher. 70]maria k, styliani kleanthous, pınar barlas, jahna otterbacher。 0.26
2021. I Agree with the Decision, but They Didn’t Deserve This: Future Developers’ Perception of Fairness in Algorithmic Decisions. 2021. 私は決定に同意するが、彼らはこれを保存しなかった: アルゴリズム決定における未来の開発者の公正性に対する認識。
訳抜け防止モード: 2021. I Agree with the Decision, しかし、彼らはこれを保存しなかった: 未来の開発者 アルゴリズム決定における公正さの認識。
0.56
In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (Virtual Event, Canada) (FAccT ’21). 2021年 ACM Conference on Fairness, Accountability, and Transparency (Virtual Event, Canada) (FAccT'21) に参加。 0.73
Association for Computing Machinery, New York, NY, USA, 690–700. Association for Computing Machinery, New York, NY, USA, 690–700。 0.92
https://doi.org/10.1 145/3442188.3445931 https://doi.org/10.1 145/3442188.3445931 0.15
[71] Shivaram Kalyanakrishnan, Rahul Alex Panicker, Sarayu Natarajan, and Shreya Rao. [71]Shivaram Kalyanakrishnan, Rahul Alex Panicker, Sarayu Natarajan, Shreya Rao 0.34
2018. Opportunities and challenges for arti￿cial intelligence in India. 2018. インドにおける人工知能の機会と挑戦 0.56
In Proceedings of the 2018 AAAI/ACM conference on AI, Ethics, and Society. 2018 AAAI/ACM Conference on AI, Ethics, and Society に参加して 0.81
164–170. [72] Vaishnav Kameswaran and Srihari Hulikal Muralidhar. 164–170. [72]Vaishnav KameswaranとSrihari Hulikal Muralidhar。 0.36
2019. Cash, Digital Payments and Accessibility: A Case Study from Metropolitan India. 2019. 現金、デジタル決済、アクセシビリティー:インド大都市圏のケーススタディ。 0.57
Proceedings of the ACM on Human-Computer Interaction 3, CSCW (2019), 1–23. ACM on Human-Computer Interaction 3, CSCW (2019), 1–23。 0.38
[73] Shivani Kapania, Oliver Siy, Gabe Clapper, Azhagu SP, and Nithya Sambasivan. 73]Shivani Kapania氏、Oliver Siy氏、Gabe Clapper氏、Azhagu SP氏、Nithya Sambasivan氏。 0.68
2022. "Because AI is 100% right and safe": User Attitudes and Sources of AI Authority in India. 2022. 「AIは100%正当で安全だから」:インドのAI機関のユーザ態度と情報源。 0.58
In CHI Conference on Human Factors in Computing Systems (CHI ’22). CHI Conference on Human Factors in Computing Systems (CHI'22) に参加。 0.40
[74] Michael Katell, Meg Young, Dharma Dailey, Bernease Herman, Vivian Guetler, Aaron Tam, Corinne Bintz, Daniella Raz, and PM Kra￿t. マイケル・カテル、メグ・ヤング、ダルマ・デイリー、ベルネイゼ・ハーマン、ヴィヴィアン・ゲトラー、アーロン・タム、コリンヌ・ビンツ、ダニエル・ラズ、クラト首相
訳抜け防止モード: [74 ]マイケル・カテル,メグ・ヤング,ダルマ・デイリー, Bernease Herman, Vivian Guetler, Aaron Tam, Corinne Bintz ダニエルラ・ラズ(Daniella Raz)。
0.69
2020. Toward situated interventions for algorithmic equity: lessons from the ￿eld. 2020. アルゴリズム・エクイティのための位置的介入:エルドからの教訓。 0.45
In Proceedings of the 2020 conference on fairness, accountability, and transparency. 2020年の公正、説明責任、透明性に関する会議の議事録で 0.66
45–55. [75] Harmanpreet Kaur, Harsha Nori, Samuel Jenkins, Rich Caruana, Hanna Wallach, and Jennifer Wortman Vaughan. 45–55. Harmanpreet Kaur氏、Harsha Nori氏、Samuel Jenkins氏、Rich Caruana氏、Hanna Wallach氏、Jennifer Wortman Vaughan氏。 0.51
2020. Interpreting Interpretability: Understanding Data Scientists’ Use of Interpretability Tools for Machine Learning. 2020. 解釈可能性: 機械学習におけるデータサイエンティストの解釈ツールの利用を理解する。 0.57
In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. 2020 chi conference on human factors in computing systems で開催されている。 0.76
1–14. [76] Jakko Kemper and Daan Kolkman. 1–14. 76]Jakko KemperとDaan Kolkman。 0.34
2019. Transparent to whom? 2019. 誰がトランスペアレントか? 0.50
No algorithmic accountability without a critical audience. 批判的なオーディエンスなしでは、アルゴリズムによる説明責任はない。 0.44
Information, Communication & Society 22, 14 (2019), 2081–2096. information, communication & society 22, 14 (2019), 2081–2096。 0.41
[77] Os Keyes, Jevan Hutson, and Meredith Durbin. 77]オス・キーズ ジーヴァン・ハッチソン メレディス・ダービン 0.33
2019. A mulching proposal: Analysing and improving an algorithmic system for turning the elderly into high-nutrient slurry. 2019. マルチングの提案:高齢者を栄養価の高いスラリーに変えるアルゴリズムシステムの解析と改善。 0.61
In Extended Abstracts of the 2019 CHI Conference on Human Factors in Computing Systems. In Extended Abstracts of the 2019 CHI Conference on Human Factors in Computing Systems 0.37
1–11. [78] Bran Knowles, Lynne Blair, Mike Hazas, and Stuart Walker. 1–11. 78] ブラン・ノウルズ、リン・ブレア、マイク・ハザス、スチュアート・ウォーカー。 0.42
2013. Exploring sustainability research in computing: where we are and where we go next. 2013. コンピューティングにおける持続可能性研究の探求:我々はどこにいて、次にどこへ行くのか。 0.49
In Proceedings of the 2013 ACM international joint conference on Pervasive and ubiquitous computing. 2013年のACM国際コンファレンス・カンファレンス「Proceedings of the 2013 ACM International joint conference on Pervasive and ubiquitous computing」に参加。 0.57
305–314. [79] Steinar Kvale. 305–314. 79]Steinar Kvale氏。 0.50
2008. Doing interviews. 2008. インタビューをする。 0.61
Sage. [80] Ms Amina Lahreche, Ms Sumiko Ogawa, Ms Kimberly Beaton, Purva Khera, Majid Bazarbash, Mr Ulric Eriksson von Allmen, Ms Ratna Sahay, et al 2020. セージ。 アミーナ・ラーレシュさん、小川純子さん、キンバリー・ビートンさん、Purva Kheraさん、Mageid Bazarbashさん、Ulric Eriksson von Allmenさん、Ratna Sahayさん、そして2020年。 0.51
The Promise of Fintech: Financial Inclusion in the Post COVID-19 Era. ファイナンシャル・インクルージョン(Financial Inclusion in the Post COVID-19)の略。 0.56
Technical Report. International Monetary Fund. 技術報告。 国際通貨基金。 0.51
[81] Min Kyung Lee, Daniel Kusbit, Evan Metsky, and Laura Dabbish. [81]ミン・キュン・リー、ダニエル・カスビット、エヴァン・メトスキー、ローラ・ダビッシュ 0.42
2015. Working with machines: The impact of algorithmic and data-driven management on human workers. 2015. マシンによる作業: アルゴリズムとデータ駆動管理が人間の作業者に与える影響。 0.61
In Proceedings of the 33rd annual ACM conference on human factors in computing systems. 第33回コンピュータシステムにおけるヒューマンファクターに関する年次ACM会議の開催報告 0.71
1603–1612. 1603–1612. 0.35
[82] Min Kyung Lee and Katherine Rich. [82]ミン・ヨン・リーとキャサリン・リッチ。 0.54
2021. Who Is Included in Human Perceptions of AI? 2021. AIの人間知覚に誰が含まれているのか? 0.53
: Trust and Perceived Fairness around Healthcare AI and Cultural Mistrust. 医療aiと文化的不信をめぐる信頼と公正感 0.54
In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems. 2021 CHI Conference on Human Factors in Computing Systems に参加して 0.71
1–14. [83] Q Vera Liao, Daniel Gruen, and Sarah Miller. 1–14. 83] Q Vera Liao、Daniel Gruen、Sarah Miller。 0.32
2020. Questioning the AI: informing design practices for explainable AI user experiences. 2020. AIに関する質問: 説明可能なAIユーザエクスペリエンスのために設計プラクティスを指示する。 0.54
In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. 2020 chi conference on human factors in computing systems で開催されている。 0.76
1–15. [84] Ryan Mac. 1–15. ライアン・マック(Ryan Mac) 0.48
2021. Facebook Apologizes After A.I. Puts ‘Primates’ Label on Video of Black Men. 2021. Facebook、黒人男性のビデオに「Primates」ラベルを貼ったことを謝罪 0.54
The New York Times (sep 2021). ニューヨーク・タイムズ(英語版) (sep 2021)。 0.72
https://www.nytimes. com/2021/ 09/03/technology/fac ebook-ai-race-primat es.html https://www.nytimes. com/2021/09/03/techn ology/facebook-ai-ra ce-primates.html 0.10
[85] Vidushi Marda. [85] ヴィドゥシ・マルダ 0.32
2018. Arti￿cial Intelligency Policy in India: A Framework for 2018. インドにおける芸術的知性政策の枠組み 0.52
Engaging the Limits of Data-Driven Decision Making. データ駆動意思決定の限界に関わること。 0.73
Technical Report. [86] Vidushi Marda and Shivangi Narayan. 技術報告。 [86]ヴィドゥシ・マルダとシバンギ・ナラヤン 0.33
2020. Data in New Delhi’s predictive policing system. 2020. ニューデリーの予測警察システムにおけるデータ。 0.54
In Proceedings of the 2020 conference on fairness, accountability, and transparency. 2020年の公正、説明責任、透明性に関する会議の議事録で 0.66
317–324. [87] Ninareh Mehrabi, Fred Morstatter, Nripsuta Saxena, Kristina Lerman, and Aram Galstyan. 317–324. [87]Ninareh Mehrabi、Fred Morstatter、Nripsuta Saxena、Kristina Lerman、Aram Galstyan。 0.51
2021. A survey on bias and fairness in machine learning. 2021. 機械学習におけるバイアスと公平性に関する調査 0.59
ACM Computing Surveys (CSUR) 54, 6 (2021), 1–35. ACM Computing Surveys (CSUR) 54, 6 (2021), 1–35。 0.83
[88] Jacob Metcalf, Emanuel Moss, Elizabeth Anne Watkins, Ranjit Singh, and Madeleine Clare Elish. Jacob Metcalf氏、Emanuel Moss氏、Elizabeth Anne Watkins氏、Ranjit Singh氏、Madeleine Clare Elish氏。 0.64
2021. Algorithmic impact assessments and accountability: The co-construction of impacts. 2021. アルゴリズムによる影響評価と説明責任:影響の共構築。 0.62
In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. 2021年 ACM Conference on Fairness, Accountability, and Transparency に参加して 0.74
735–746. [89] Margaret Mitchell, Simone Wu, Andrew Zaldivar, Parker Barnes, Lucy Vasserman, Ben Hutchinson, Elena Spitzer, Inioluwa Deborah Raji, and Timnit Gebru. 735–746. [89]マーガレット・ミッチェル、シモーネ・ウー、アンドリュー・ザルディヴァル、パーカー・バーンズ、ルーシー・ヴァッサーマン、ベン・ハッチンソン、エレナ・スピッツァー、イニオウルワ・デボラ・ラジ、ティムニット・ゲブル 0.43
2019. Model cards for model reporting. 2019. モデルレポート用のモデルカード。 0.63
In Proceedings of the conference on fairness, accountability, and transparency. 公正、説明責任、透明性に関する会議の議事録です 0.58
220–229. [90] Emanuel Moss, Elizabeth Anne Watkins, Ranjit Singh, Madeleine Clare Elish, and Jacob Metcalf. 220–229. Emanuel Moss氏、Elizabeth Anne Watkins氏、Ranjit Singh氏、Madeleine Clare Elish氏、Jacob Metcalf氏。 0.34
2021. Assembling Accountability: Algorithmic Impact Assessment for the Public Interest. 2021. アカウンタビリティ: 公的利益に対するアルゴリズムによる影響評価。 0.57
Available at SSRN 3877437 (2021). SSRN 3877437 (2021)で利用可能。 0.82
[91] NITI Aayog. [91]ニティ・アヤオグ。 0.35
2021. Responsible AI #AIFORALL. 2021. 責任あるai#aiforall。 0.48
(2021). [92] Sa￿ya Umoja Noble. (2021). [92]サシャ・ウモヤ・ノブル。 0.43
2018. Algorithms of oppression. 2018. 抑圧のアルゴリズム。 0.53
New York University Press. ニューヨーク大学出版局。 0.66
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Ramesh et al [119] Danding Wang, Qian Yang, Ashraf Abdul, and Brian Y Lim. Rameshら [119]タンディング・ワン、キアン・ヤン、アシュラフ・アブドゥル、ブライアン・イ・リム。 0.39
2019. Designing theory-driven user-centric explainable AI. 2019. 理論駆動型ユーザ中心の説明可能なAIを設計する。 0.43
In Proceedings of the 2019 CHI conference on human factors in computing systems. 2019 chi conference on human factors in computing systemsの開催中である。 0.75
1–15. [120] Ruotong Wang, F. Maxwell Harper, and Haiyi Zhu. 1–15. [120]洛東王、F. Maxwell Harper、Haayi Zhu。 0.34
2020. Factors In￿uencing Perceived Fairness in Algorithmic Decision-Making: Algorithm Outcomes, Development Procedures, and Individual Di￿erences. 2020. アルゴリズム決定過程における知覚フェアネスの要因:アルゴリズムの成果、開発手順、個人差 0.61
In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (Honolulu, HI, USA) (CHI ’20). 2020 chi conference on human factors in computing systems (honolulu, hi, usa) (chi ’20) で発表された。 0.67
Association for Computing Machinery, New York, NY, USA, 1–14. Association for Computing Machinery, New York, NY, USA, 1–14。 0.92
https://doi.org/10.1 145/3313831.3376813 https://doi.org/10.1 145/3313831.3376813 0.15
[121] Maranke Wieringa. Maranke Wieringa (複数形 Maranke Wieringas) 0.23
2020. What to account for when accounting for algorithms: a systematic literature review on algorithmic accountability. 2020. アルゴリズム会計における説明すべきこと:アルゴリズム会計可能性に関する体系的文献レビュー。 0.56
In Proceedings of the 2020 conference on fairness, accountability, and transparency. 2020年の公正、説明責任、透明性に関する会議の議事録で 0.66
1–18. [122] Allison Woodru￿, Sarah E Fox, Steven Rousso-Schindler, and Je￿rey Warshaw. 1–18. 122]アリソン・ウッドルー、サラ・e・フォックス、スティーヴン・ルッソ=シンドラー、ジェフリー・ウォーショー。 0.42
2018. A qualitative exploration of perceptions of algorithmic fairness. 2018. アルゴリズム的公平性の知覚の質的探索。 0.53
In Proceedings of the 2018 chi conference on human factors in computing systems. 2018 chi conference on human factors in computing systemsの開催中である。 0.80
1–14. Image Cropping on Twitter: Fairness Metrics, their Limitations, and the Importance of Representation, Design, and Agency. 1–14. twitterの画像トリッピング:公平度メトリクス、制限、表現、デザイン、代理店の重要性。
訳抜け防止モード: 1–14. twitter上の画像クロッピング : 公平度指標とその限界 そして、表現、デザイン、そして代理店の重要性です。
0.49
arXiv preprint arXiv:2105.08667 (2021). arxiv プレプリント arxiv:2105.08667 (2021) 0.47
[123] Kyra Yee, Uthaipon Tantipongpipat, and Shubhanshu Mishra. [123]Kyra Yee、Uthaipon Tantipongpipat、Shubhanshu Mishra。 0.55
2021. [93] Chinasa T Okolo, Srujana Kamath, Nicola Dell, and Aditya Vashistha. 2021. [93]Chinasa T Okolo、Srujana Kamath、Nicola Dell、Aditya Vashistha。 0.38
2021. “It cannot do all of my work”: Community Health Worker Perceptions of AIEnabled Mobile Health Applications in Rural India. 2021. 地域保健労働者は、インドの農村部でaiを利用できるモバイル健康アプリケーションについて認識している。 0.49
In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems. 2021 CHI Conference on Human Factors in Computing Systems に参加して 0.71
1–20. [94] Cathy O’neil. 1–20. 94]キャシー・オニール。 0.38
2016. Weapons of math destruction: How big data increases inequal- 2016. 数学破壊兵器:ビッグデータがいかに不平等に増加するか 0.55
ity and threatens democracy. Crown. 民主主義を脅かす。 クラウン 0.50
[95] Jacki O’neill, Anupama Dhareshwar, and Srihari H Muralidhar. 95]Jacki O’neill、Anupama Dhareshwar、Srihari H Muralidhar。 0.31
2017. Working digital money into a cash economy: The collaborative work of loan payment. 2017. デジタルマネーを現金経済に投入する: ローン支払いの共同作業。 0.54
Computer Supported Cooperative Work (CSCW) 26, 4 (2017), 733–768. コンピュータ支援共同作業(cscw)26、4(2017)、733-768。 0.71
[96] Google PAIR. 96] Google PAIR。 0.31
2019. People + AI Guidebook. 2019. 人間+AIガイドブック。 0.52
https://design.googl e/ai-guidebook [97] Joyojeet Pal, Priyank Chandra, Vaishnav Kameswaran, Aakanksha Parameshwar, Sneha Joshi, and Aditya Johri. https://design.googl e/ai-guidebook [97] Joyojeet Pal, Priyank Chandra, Vaishnav Kameswaran, Aakanksha Parameshwar, Sneha Joshi, Aditya Johri 0.46
2018. Digital payment and its discontents: Street shops and the Indian government’s push for cashless transactions. 2018. デジタル決済とその不満: ストリートショップとインド政府によるキャッシュレス取引の推進。 0.54
In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. 2018 chi conference on human factors in computing systemsの開催中である。 0.72
1–13. [98] Frank Pasquale. 1–13. フランク・パスクァール(Frank Pasquale)。 0.46
2015. The black box society. 2015. ブラックボックス社会。 0.50
Harvard University Press. ハーバード大学出版局。 0.66
[99] S Pénicaud. [99]S Pénicaud。 0.40
2021. Building Public Algorithm Registers: Lessons Learned from 2021. パブリックアルゴリズムレジスタの構築: 学んだ教訓 0.57
the French Approach. フランスのアプローチ。 0.66
(2021). [100] Emilee Rader, Kelley Cotter, and Janghee Cho. (2021). 100] Emilee Rader、Kelley Cotter、Janghee Cho。 0.36
2018. Explanations as mechanisms for supporting algorithmic transparency. 2018. アルゴリズムの透明性を支えるメカニズムとしての説明。 0.52
In Proceedings of the 2018 CHI conference on human factors in computing systems. 2018 chi conference on human factors in computing systemsの開催中である。 0.76
1–13. [101] Inioluwa Deborah Raji and Joy Buolamwini. 1–13. 101]Inioluwa Deborah RajiとJoy Buolamwini。 0.35
2019. Actionable auditing: Investigating the impact of publicly naming biased performance results of commercial ai products. 2019. actionable auditing: 商用ai製品のバイアスのあるパフォーマンス結果の影響を調査する。 0.59
In Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society. 2019 AAAI/ACM Conference on AI, Ethics, and Society に参加して 0.80
429–435. [102] Inioluwa Deborah Raji, Andrew Smart, Rebecca N White, Margaret Mitchell, Timnit Gebru, Ben Hutchinson, Jamila Smith-Loud, Daniel Theron, and Parker Barnes. 429–435. Inioluwa Deborah Raji氏、Andrew Smart氏、Rebecca N White氏、Margaret Mitchell氏、Timnit Gebru氏、Ben Hutchinson氏、Jamila Smith-Loud氏、Daniel Theron氏、Parker Barnes氏。 0.56
2020. Closing the AI accountability gap: De￿ning an end-to-end framework for internal algorithmic auditing. 2020. aiアカウンタビリティギャップを閉じる: 内部アルゴリズム監査のためのエンドツーエンドフレームワークのデショニング。 0.59
In Proceedings of the 2020 conference on fairness, accountability, and transparency. 2020年の公正、説明責任、透明性に関する会議の議事録で 0.66
33–44. [103] Bogdana Rakova, Jingying Yang, Henriette Cramer, and Rumman Chowdhury. 33–44. 103] ボグダナ・ラコヴァ、ジンギング・ヤン、ヘンリエット・クラーマー、ラムマン・チャウドゥリー 0.33
2021. Where Responsible AI Meets Reality: Practitioner Perspectives on Enablers for Shifting Organizational Practices. 2021. 責任あるaiが現実を満たす場所: 組織的なプラクティスを変革するための実現可能性に関する実践者視点。 0.45
Proc. ACM Hum. Proc ACMヒューム所属。 0.48
-Comput. Interact. -計算。 相互作用する。 0.38
5, CSCW1, Article 7 (apr 2021), 23 pages. 5 cscw1、第7条(apr 2021)、23ページ。 0.75
https://doi.org/10.1 145/3449081 https://doi.org/10.1 145/3449081 0.17
[104] Padmini Ray Murray, Naveen L Bagalkot, Shreyas Srivatsa, and Paul Anthony. 104] Padmini Ray Murray, Naveen L Bagalkot, Shreyas Srivatsa, Paul Anthony。 0.35
2021. Design Beku: Toward Decolonizing Design and Technology through Collaborative and Situated Care-in-Practices. 2021. デザイン・ベク:協力的かつ配置されたケア・イン・プラクティスを通じてデザインとテクノロジーをデコロニゼーションする。 0.46
Global Perspectives 2, 1 (2021), 26132. グローバル・パースペクティブス 2, 1 (2021), 26132。 0.67
[105] Marco Tulio Ribeiro, Sameer Singh, and Carlos Guestrin. 105]マルコ・トゥリオ・リベイロ、サマー・シン、カルロス・ゲストリン 0.47
2016. Model-agnostic 2016. モデル診断 0.54
interpretability of machine learning. 機械学習の解釈可能性です 0.67
arXiv preprint arXiv:1606.05386 (2016). arxiv プレプリント arxiv:1606.05386 (2016) 0.40
[106] Rashida Richardson. 106]ラシダ・リチャードソン。 0.40
2021. De￿ning and Demystifying Automated Decision 2021. デシニングとデミスティファイション自動決定 0.58
Systems. Maryland Law Review, Forthcoming (2021). システム。 メリーランド・ロー・レビュー』、2021年。 0.62
[107] A Ruhaak. 【107年】ルハーク。 0.42
2021. When One A￿ects Many: The Case For Collective Consent. 2021. ひとつが多すぎるとき: 集合的コンセントのケース。 0.49
Mozilla Foundation 20 (2021). mozilla foundation 20 (2021) の略。 0.69
[108] Johnny Saldaña. ジョニー・サルダニャ(Johnny Saldaña)。 0.57
2015. The coding manual for qualitative researchers. 2015. 定性的研究者のためのコーディングマニュアル。 0.56
Sage. [109] Nithya Sambasivan, Erin Arnesen, Ben Hutchinson, Tulsee Doshi, and Vinodkumar Prabhakaran. セージ。 109]Nithya Sambasivan,Erin Arnesen,Ben Hutchinson,Tulsee Doshi,Vinodkumar Prabhakaran。 0.39
2021. Re-imagining algorithmic fairness in india and beyond. 2021. インド以降のアルゴリズムフェアネスを再想像する。 0.51
In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. 2021年 ACM Conference on Fairness, Accountability, and Transparency に参加して 0.74
315–328. [110] Nithya Sambasivan, Ed Cutrell, Kentaro Toyama, and Bonnie Nardi. 315–328. 110]ニティヤ・サンバシバン、エド・カットレル、富山健太郎、ボニー・ナルディ 0.39
2010. Intermediated technology use in developing communities. 2010. 開発コミュニティにおける相互利用技術。 0.59
In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. SIGCHI Conference on Human Factors in Computing Systems に参加して 0.69
2583–2592. 2583–2592. 0.35
[111] Nithya Sambasivan, Shivani Kapania, Hannah High￿ll, Diana Akrong, Praveen Paritosh, and Lora M Aroyo. 1111]ニティヤ・サンバシバン、シヴァニ・カパニア、ハンナ・ハイル、ダイアナ・アクロン、プラヴィエン・パリトシュ、ロラ・m・アロイオ
訳抜け防止モード: 111年]ニティヤ・サンバシバン、シヴァニ・カパニア、ハンナ・ハイル diana akrong、praveen paritosh、lora m aroyoなど。
0.56
2021. “Everyone wants to do the model work, not the data work”: Data Cascades in High-Stakes AI. 2021. データ処理ではなく、誰もがモデル処理をしたい”: 高スループットaiにおけるデータカスケード。 0.56
In proceedings of the 2021 CHI Conference on Human Factors in Computing Systems. 2021 CHI Conference on Human Factors in Computing Systems に参加して 0.71
1–15. [112] Christian Sandvig, Kevin Hamilton, Karrie Karahalios, and Cedric Langbort. 1–15. 112]クリスチャン・サンドヴィグ、ケビン・ハミルトン、キャリー・カラハリオ、セドリック・ランボルト 0.48
[n.d.]. Auditing algorithms: Research methods for detecting discrimination on internet platforms. [n.d.] 監査アルゴリズム:インターネットプラットフォーム上での差別を検出する研究方法。 0.63
([n. d.]). [113] Alison Smith-Renner, Ron Fan, Melissa Birch￿eld, Tongshuang Wu, Jordan BoydGraber, Daniel S Weld, and Leah Findlater. (n.d.)。 113] アリソン・スミス=レンナー、ロン・ファン、メリッサ・バーチャルド、トンジュアン・ウー、ジョーダン・ボイドグラバー、ダニエル・s・ウェルド、リア・フィンドレイター
訳抜け防止モード: (n.d.)。 アリソン・スミス - レナー、ロン・ファン、メリッサ・バーチエルド。 Tongshuang Wu, Jordan BoydGraber, Daniel S Weld, Leah Findlater
0.67
2020. No explainability without accountability: An empirical study of explanations and feedback in interactive ml. 2020. 説明責任のない説明不可能:対話型mlにおける説明とフィードバックの実証的研究。 0.53
In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. 2020 chi conference on human factors in computing systems で開催されている。 0.76
1–13. [114] Lucy A Suchman. 1–13. ルーシー [114] スーザンマン。 0.44
1987. Plans and situated actions: The problem of human- 1987. 計画と位置づけ行動--人間の問題 0.55
machine communication. Cambridge university press. マシン通信 ケンブリッジ大学の記者。 0.60
[115] The Arti￿cial Intelligence Task Force. [115] 芸術的知性タスクフォース。 0.60
2018. No Report of Task Force on Arti￿cial Intelligence. 2018. 人工知能に関するタスクフォースの報告はない。 0.48
Technical Report. https://dpiit.gov.in /whats-new/report-ta skforce-arti￿cial-intelligence 技術報告。 https://dpiit.gov.in /whats-new/report-ta skforce-arti-cial-in telligence 0.22
[116] Harry Tucker. ハリー・タッカー(Harry Tucker)。 0.57
2016. Australian Uber drivers say the company is manipulating 2016. オーストラリアのuberドライバーがuberを操作中 0.55
their ratings to boost its fees. 手数料を上げるための評価です 0.53
Business Insider Australia 20 (2016). ビジネスインサイダーオーストラリア20(2016年)。 0.73
[117] James Vincent. 117年 ジェームズ・ヴィンセント 0.51
2016. Twitter taught {Microsoft}’s friendly {AI} chatbot to be https://www.theverge .com/2016/3/24/ 2016. Twitterは {Microsoft} のフレンドリーな {AI} チャットボットに https://www.theverge .com/2016/3/24/ 0.49
a racist asshole in less than a day. 1日足らずで人種差別主義者のアホ。 0.57
11297050/tay-microso ft-chatbot-racist 11297050/tay-microso ft-chatbot-racist 0.12
[118] John Vines, Mark Blythe, Stephen Lindsay, Paul Dunphy, Andrew Monk, and Patrick Olivier. 118] ジョン・ビンズ、マーク・ブライス、スティーブン・リンゼイ、ポール・ダンフィー、アンドリュー・モンク、パトリック・オリヴィエ 0.68
2012. Questionable concepts: critique as resource for designing with eighty somethings. 2012. 疑わしい概念: 80の何かで設計するリソースとしての批判。 0.52
In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. SIGCHI Conference on Human Factors in Computing Systems に参加して 0.69
1169–1178. 1169–1178. 0.35
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。