論文の概要: Model Positionality and Computational Reflexivity: Promoting Reflexivity
in Data Science
- arxiv url: http://arxiv.org/abs/2203.07031v1
- Date: Tue, 8 Mar 2022 16:02:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-20 23:10:50.306593
- Title: Model Positionality and Computational Reflexivity: Promoting Reflexivity
in Data Science
- Title(参考訳): モデル位置性と計算反射性:データサイエンスにおける反射性促進
- Authors: Scott Allen Cambo, Darren Gergle
- Abstract要約: データサイエンスの作業を理解するための枠組みを提供するために,位置性や反射性の概念をどのように適応させるかを説明する。
データサイエンスの仕事にこれらの概念を適用する上での課題について述べ,将来性のあるソリューションとしてアノテータのフィンガープリントと位置マイニングを提供する。
- 参考スコア(独自算出の注目度): 10.794642538442107
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data science and machine learning provide indispensable techniques for
understanding phenomena at scale, but the discretionary choices made when doing
this work are often not recognized. Drawing from qualitative research
practices, we describe how the concepts of positionality and reflexivity can be
adapted to provide a framework for understanding, discussing, and disclosing
the discretionary choices and subjectivity inherent to data science work. We
first introduce the concepts of model positionality and computational
reflexivity that can help data scientists to reflect on and communicate the
social and cultural context of a model's development and use, the data
annotators and their annotations, and the data scientists themselves. We then
describe the unique challenges of adapting these concepts for data science work
and offer annotator fingerprinting and position mining as promising solutions.
Finally, we demonstrate these techniques in a case study of the development of
classifiers for toxic commenting in online communities.
- Abstract(参考訳): データサイエンスと機械学習は、大規模に現象を理解するのに欠かせない技術を提供するが、この研究を行う際の決定的な選択はしばしば認識されない。
定性的研究の実践から、位置性や反射性の概念をどのように適応させ、データサイエンスの作業に固有の決定的選択と主観性を理解し、議論し、開示するための枠組みを提供するかを記述する。
まず、データ科学者がモデルの開発と使用の社会的・文化的文脈、データアノテータとそのアノテーション、そしてデータ科学者自身を反映し、伝達するのに役立つモデル位置性と計算反射率の概念を紹介します。
次に,これらの概念をデータサイエンスの仕事に適応させるというユニークな課題を説明し,アノテータのフィンガープリントと位置マイニングを有望なソリューションとして提供する。
最後に,これらの手法を,オンラインコミュニティにおける有害コメントの分類器の開発を事例として紹介する。
関連論文リスト
- User-centric evaluation of explainability of AI with and for humans: a comprehensive empirical study [5.775094401949666]
この研究はHuman-Centered Artificial Intelligence (HCAI)にある。
一般的に使用されるeXplainable Artificial Intelligence (XAI)アルゴリズムのユーザ中心評価の結果に焦点を当てている。
論文 参考訳(メタデータ) (2024-10-21T12:32:39Z) - A review on data-driven constitutive laws for solids [0.0]
この記事では、法律を発見し、エンコードし、代理し、エミュレートするための最先端のデータ駆動技術を強調します。
我々の目標は、過去数十年で開発された幅広い方法論に組織化された分類を提供することである。
論文 参考訳(メタデータ) (2024-05-06T17:33:58Z) - Learning Interpretable Concepts: Unifying Causal Representation Learning
and Foundation Models [51.43538150982291]
人間の解釈可能な概念をデータから学習する方法を研究する。
両分野からアイデアをまとめ、多様なデータから概念を確実に回収できることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:23:59Z) - Towards Explainable Artificial Intelligence (XAI): A Data Mining
Perspective [35.620874971064765]
この研究は、データ収集、処理、分析が説明可能なAI(XAI)にどのように貢献するかを「データ中心」の視点で検証する。
我々は,既存の研究を,深層モデルの解釈,トレーニングデータの影響,ドメイン知識の洞察の3つのカテゴリに分類する。
具体的には、XAIの方法論を、モダリティをまたいだデータのトレーニングおよびテストに関するデータマイニング操作に蒸留する。
論文 参考訳(メタデータ) (2024-01-09T06:27:09Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - A Vision for Semantically Enriched Data Science [19.604667287258724]
ドメイン知識の活用やデータセマンティクスといった重要な分野は、ほとんど自動化されていない分野です。
データサイエンスの自動化のための新しいツールと組み合わせて、データに対する“セマンティック”な理解と推論を活用することが、一貫性と説明可能なデータ拡張と変換にどのように役立つか、私たちは考えています。
論文 参考訳(メタデータ) (2023-03-02T16:03:12Z) - Data Centred Intelligent Geosciences: Research Agenda and Opportunities,
Position Paper [1.3632312903156156]
この知識は、統計モデリング、機械学習、およびジオデータ収集に現代的なデータ分析手法を適用することによって生み出される。
問題は、モデル構築、モデルのアセスメント、予測、予測におけるオープンな方法論的な問題に対処する。
論文 参考訳(メタデータ) (2022-08-20T12:30:32Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。