論文の概要: Dead Zone of Accountability: Why Social Claims in Machine Learning Research Should Be Articulated and Defended
- arxiv url: http://arxiv.org/abs/2508.08739v3
- Date: Thu, 14 Aug 2025 21:34:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 12:50:03.080024
- Title: Dead Zone of Accountability: Why Social Claims in Machine Learning Research Should Be Articulated and Defended
- Title(参考訳): 説明責任のデッドゾーン:なぜ機械学習研究における社会的主張がアート化され、修正されるべきなのか
- Authors: Tianqi Kou, Dana Calacci, Cindy Lin,
- Abstract要約: 多くの機械学習研究は、新しい手法や技術の潜在的な社会的利益や技術的余裕を記述した言語を使用している。
こうした言語は、私たちが「社会的主張」と呼んでいるもので、機械学習の研究と技術生産に関わる人々にとって、かなりのリソースと影響力を得られる。
本稿では,クレームとリナリティのギャップについて考察し,それに対する説明責任機構の開発を規範的に論じる。
- 参考スコア(独自算出の注目度): 1.6385815610837167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many Machine Learning research studies use language that describes potential social benefits or technical affordances of new methods and technologies. Such language, which we call "social claims", can help garner substantial resources and influence for those involved in ML research and technology production. However, there exists a gap between social claims and reality (the claim-reality gap): ML methods often fail to deliver the claimed functionality or social impacts. This paper investigates the claim-reality gap and makes a normative argument for developing accountability mechanisms for it. In making the argument, we make three contributions. First, we show why the symptom - absence of social claim accountability - is problematic. Second, we coin dead zone of accountability - a lens that scholars and practitioners can use to identify opportunities for new forms of accountability. We apply this lens to the claim-reality gap and provide a diagnosis by identifying cognitive and structural resistances to accountability in the claim-reality gap. Finally, we offer a prescription - two potential collaborative research agendas that can help create the condition for social claim accountability.
- Abstract(参考訳): 多くの機械学習研究は、新しい手法や技術の潜在的な社会的利益や技術的余裕を記述した言語を使用している。
こうした言語は、私たちが「社会的主張」と呼んでいるもので、機械学習の研究と技術生産に関わる人々にとって、かなりのリソースと影響力を得られる。
しかし、社会的クレームと現実の間にはギャップがある(クレームと現実のギャップ): MLメソッドは、しばしば、クレーム機能や社会的影響を提供するのに失敗する。
本稿では,クレームとリナリティのギャップについて検討し,それに対する説明責任機構の開発に規範的な議論を行う。
議論を行う際、私たちは3つの貢献をします。
まず,社会的主張責任の欠如という症状がなぜ問題となるのかを示す。
第2に,アカウンタビリティのデッドゾーン(Dead Zone of Accountability) - 学者や実践者が新たなカウンタビリティの機会を特定するために使用できるレンズ。
本稿では,このレンズをクレーム-リティーギャップに適用し,クレーム-リティーギャップの認知的および構造的抵抗を識別し,クレーム-リティーギャップにおけるアカウンタビリティを診断する。
最後に、我々は、社会的なクレーム説明責任の条件を作るのに役立つ2つの潜在的協力研究アジェンダを提供する。
関連論文リスト
- Social Genome: Grounded Social Reasoning Abilities of Multimodal Models [61.88413918026431]
社会的推論能力は、AIシステムが社会的文脈内でのマルチモーダルなヒューマンコミュニケーションと相互作用を解釈し、応答する上で不可欠である。
SOCIAL GENOMEは,マルチモーダルモデルのきめ細かな基礎的な社会的推論能力を示す最初のベンチマークである。
論文 参考訳(メタデータ) (2025-02-21T00:05:40Z) - Can LLMs Assist Annotators in Identifying Morality Frames? -- Case Study on Vaccination Debate on Social Media [22.976609127865732]
大規模言語モデル(LLM)は、数ショットの学習を通じて新しいタスクを適応できる。
本研究は,ソーシャルメディア上での予防接種討論において,人間アノテータによる道徳的枠組みの同定を支援するLLMの可能性を探るものである。
論文 参考訳(メタデータ) (2025-02-04T04:10:23Z) - From Model Performance to Claim: How a Change of Focus in Machine Learning Replicability Can Help Bridge the Responsibility Gap [0.0]
2つの目標 - 機械学習研究の複製性と説明責任の改善。
本稿では,複製可能性の再構築がギャップを埋める助けとなることを示唆する。
論文 参考訳(メタデータ) (2024-04-19T18:36:14Z) - Neural Theory-of-Mind? On the Limits of Social Intelligence in Large LMs [77.88043871260466]
私たちは、今日の最大の言語モデルのひとつに、このようなソーシャルインテリジェンスを最初から欠いていることを示しています。
我々は、人中心のNLPアプローチは、マインドの神経理論に対してより効果的であるかもしれないと結論づける。
論文 参考訳(メタデータ) (2022-10-24T14:58:58Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Machine learning in the social and health sciences [0.8681909776958184]
本稿では、社会・健康科学における研究課題のメタマッピングを機械学習の適切なアプローチに適用する。
確立された分類を、一般的な研究目標に記述、予測、因果推論にマッピングする。
論文 参考訳(メタデータ) (2021-06-20T15:48:45Z) - The Use and Misuse of Counterfactuals in Ethical Machine Learning [2.28438857884398]
検討すべき事実が人種や性別などの社会的カテゴリーである場合に、反事実の使用にもっと注意を払っている。
機械学習の公正性と社会的説明可能性に対する反事実的アプローチは、社会的カテゴリとは何かという不合理な理論を必要とする可能性があると結論付けている。
論文 参考訳(メタデータ) (2021-02-09T19:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。