論文の概要: Behavior Matters: An Alternative Perspective on Promoting Responsible Data Science
- arxiv url: http://arxiv.org/abs/2410.17273v1
- Date: Mon, 07 Oct 2024 16:59:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-27 05:40:54.423774
- Title: Behavior Matters: An Alternative Perspective on Promoting Responsible Data Science
- Title(参考訳): 行動問題:責任あるデータ科学を促進するための別の視点
- Authors: Ziwei Dong, Ameya Patil, Yuichi Shoda, Leilani Battle, Emily Wall,
- Abstract要約: データサイエンスパイプラインは、社会的不平等と害を容易に伝播することができる。
伝統的な解法は本質的に技術的であり、例えばバイアスアルゴリズムを緩和する。
本稿では,行動変化の理論を用いて,責任あるデータ科学を促進する新しいレンズを提案する。
- 参考スコア(独自算出の注目度): 9.696812613037448
- License:
- Abstract: Data science pipelines inform and influence many daily decisions, from what we buy to who we work for and even where we live. When designed incorrectly, these pipelines can easily propagate social inequity and harm. Traditional solutions are technical in nature; e.g., mitigating biased algorithms. In this vision paper, we introduce a novel lens for promoting responsible data science using theories of behavior change that emphasize not only technical solutions but also the behavioral responsibility of practitioners. By integrating behavior change theories from cognitive psychology with data science workflow knowledge and ethics guidelines, we present a new perspective on responsible data science. We present example data science interventions in machine learning and visual data analysis, contextualized in behavior change theories that could be implemented to interrupt and redirect potentially suboptimal or negligent practices while reinforcing ethically conscious behaviors. We conclude with a call to action to our community to explore this new research area of behavior change interventions for responsible data science.
- Abstract(参考訳): データサイエンスパイプラインは、私たちが何を買うか、何のために働くか、どこに住んでいるかなど、毎日の意思決定に影響を与えます。
設計が間違っていれば、これらのパイプラインは社会的不平等と害を容易に伝播することができる。
従来のソリューションは本質的に技術的であり、例えばバイアスのあるアルゴリズムを緩和する。
本稿では,技術的な解決だけでなく,実践者の行動責任も重視する行動変化理論を用いた,責任あるデータ科学を促進するための新しいレンズを紹介する。
認知心理学からの行動変化理論とデータサイエンスのワークフロー知識と倫理ガイドラインを統合することにより、責任あるデータサイエンスに関する新たな視点を提示する。
本稿では、機械学習と視覚データ分析におけるデータ科学の介入例を示す。行動変化理論の文脈化により、倫理的に意識された行動の強化を図りながら、潜在的に最適あるいは過敏な行為を中断・リダイレクトすることが可能になる。
我々は、この行動変化介入の新たな研究領域を、責任あるデータサイエンスのために探求するため、コミュニティに行動を起こすよう呼びかけて締めくくります。
関連論文リスト
- Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - A Survey on Knowledge Editing of Neural Networks [43.813073385305806]
最大の人工ニューラルネットワークでさえ間違いを犯し、世界が時間とともに進むにつれて、一度修正された予測が無効になる可能性がある。
知識編集は、訓練済みのターゲットモデルに対する信頼性、データ効率、迅速な変更の実現を目的とした、新しい研究分野として浮上している。
まず、ニューラルネットワークの編集の問題を紹介し、それを共通のフレームワークで形式化し、継続的学習のような悪名高い研究分野と区別する。
論文 参考訳(メタデータ) (2023-10-30T16:29:47Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Bayesian Reinforcement Learning with Limited Cognitive Load [43.19983737333797]
適応行動の理論は、エージェントの学習履歴、決定、容量制約の間の複雑な相互作用を考慮に入れなければならない。
コンピュータ科学における最近の研究は、強化学習、ベイズ的意思決定、レート歪曲理論からアイデアをブリッジすることで、これらの力学を形作る原理を明確にし始めている。
論文 参考訳(メタデータ) (2023-05-05T03:29:34Z) - Learning to Influence Human Behavior with Offline Reinforcement Learning [70.7884839812069]
人間の準最適性を捉える必要があるような環境での影響に焦点を当てる。
人間によるオンライン実験は安全ではない可能性があり、環境の高忠実度シミュレータを作成することは現実的ではないことが多い。
オフライン強化学習は、観察された人間・人間の行動の要素を拡張し、組み合わせることで、人間に効果的に影響を及ぼすことができることを示す。
論文 参考訳(メタデータ) (2023-03-03T23:41:55Z) - The world seems different in a social context: a neural network analysis
of human experimental data [57.729312306803955]
本研究では,先行・知覚的信号の精度を変化させることで,個人・社会的タスク設定の両方で人間の行動データを再現可能であることを示す。
トレーニングされたネットワークの神経活性化トレースの分析は、情報が個人や社会的条件のネットワークにおいて、根本的に異なる方法でコード化されていることを示す。
論文 参考訳(メタデータ) (2022-03-03T17:19:12Z) - Proposing an Interactive Audit Pipeline for Visual Privacy Research [0.0]
我々は、システムにおけるバイアスと公平性の問題を発見し、責任ある人間対ループの必要性を主張し、有害な社会的影響を持つ研究課題を探求する必要性を反映するために公正性を利用することについて議論する。
私たちの目標は、視覚的プライバシとバイアスの問題に対して、機械学習パイプラインの体系的な分析を提供することです。
論文 参考訳(メタデータ) (2021-11-07T01:51:43Z) - Biases in Data Science Lifecycle [0.0]
本研究の目的は,データ科学者の実践的ガイドラインを提供し,その意識を高めることである。
この研究では、さまざまなバイアス源をレビューし、データサイエンスライフサイクルの異なる段階の下でグループ化しました。
論文 参考訳(メタデータ) (2020-09-10T13:41:48Z) - Never Stop Learning: The Effectiveness of Fine-Tuning in Robotic
Reinforcement Learning [109.77163932886413]
本稿では,ロボットによるロボット操作ポリシーを,政治以外の強化学習を通じて微調整することで,新たなバリエーションに適応する方法を示す。
この適応は、タスクをゼロから学習するために必要なデータの0.2%未満を使用する。
事前訓練されたポリシーを適用するという私たちのアプローチは、微調整の過程で大きなパフォーマンス向上につながります。
論文 参考訳(メタデータ) (2020-04-21T17:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。