論文の概要: Theory In, Theory Out: The uses of social theory in machine learning for
social science
- arxiv url: http://arxiv.org/abs/2001.03203v3
- Date: Wed, 15 Jan 2020 16:11:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 05:24:15.258574
- Title: Theory In, Theory Out: The uses of social theory in machine learning for
social science
- Title(参考訳): 理論 in, Theory Out: 社会科学のための機械学習における社会理論の利用
- Authors: Jason Radford and Kenneth Joseph
- Abstract要約: 機械学習パイプラインの各段階で生じる基本的な方法論的および解釈的疑問に、社会理論がどのように答えられるかを示す。
本論文は,機械学習のツールをソーシャルデータに適用する際の現実的な疑問を,コンピュータや社会科学者のガイドとして扱うことができると考えている。
- 参考スコア(独自算出の注目度): 3.180013942295509
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research at the intersection of machine learning and the social sciences has
provided critical new insights into social behavior. At the same time, a
variety of critiques have been raised ranging from technical issues with the
data used and features constructed, problematic assumptions built into models,
their limited interpretability, and their contribution to bias and inequality.
We argue such issues arise primarily because of the lack of social theory at
various stages of the model building and analysis. In the first half of this
paper, we walk through how social theory can be used to answer the basic
methodological and interpretive questions that arise at each stage of the
machine learning pipeline. In the second half, we show how theory can be used
to assess and compare the quality of different social learning models,
including interpreting, generalizing, and assessing the fairness of models. We
believe this paper can act as a guide for computer and social scientists alike
to navigate the substantive questions involved in applying the tools of machine
learning to social data.
- Abstract(参考訳): 機械学習と社会科学の交差点における研究は、社会行動に関する重要な新しい洞察をもたらした。
同時に、使用されるデータや特徴に関する技術的な問題、モデルに構築された問題的な仮定、解釈可能性の制限、バイアスや不平等への貢献など、さまざまな批判が提起されている。
このような問題は、モデル構築と分析の様々な段階における社会理論の欠如が主な原因であると主張する。
本論文の前半では,機械学習パイプラインの各段階で生じる基本的な方法論的および解釈的疑問に,社会理論を用いて答える方法について述べる。
後半では,モデルのフェアネスを解釈,一般化,評価するなど,様々な社会学習モデルの質を評価・比較するために理論をどのように利用できるかを示す。
本論文は,機械学習のツールをソーシャルデータに適用する際の現実的な疑問を,コンピュータや社会科学者のガイドとして扱うことができると考えている。
関連論文リスト
- AI and Social Theory [0.0]
我々は、人工知能(AI)が意味するものを定義することから始まる、AI駆動型社会理論のプログラムをスケッチする。
そして、AIベースのモデルがデジタルデータの可用性を増大させ、予測力に基づいて異なる社会的理論の有効性をテストするためのモデルを構築します。
論文 参考訳(メタデータ) (2024-07-07T12:26:16Z) - Towards Asimov's Psychohistory: Harnessing Topological Data Analysis, Artificial Intelligence and Social Media data to Forecast Societal Trends [0.0]
ビッグデータや高度な計算手法の時代には、大規模社会行動の予測がますます実現可能になっている。
本稿では,計算能力と数学的枠組みの統合を理論的に検討する。
これらのツールは、大きなコミュニティのダイナミクスに前例のない明快さをもたらしている、と私は論じます。
論文 参考訳(メタデータ) (2024-07-03T18:44:36Z) - Advancing Social Intelligence in AI Agents: Technical Challenges and Open Questions [67.60397632819202]
ソーシャルインテリジェントAIエージェント(Social-AI)の構築は、多分野、マルチモーダルな研究目標である。
我々は、社会AIを前進させるために、基礎となる技術的課題と、コンピューティングコミュニティ全体にわたる研究者のためのオープンな質問を特定します。
論文 参考訳(メタデータ) (2024-04-17T02:57:42Z) - DeSIQ: Towards an Unbiased, Challenging Benchmark for Social
Intelligence Understanding [60.84356161106069]
複雑な社会的相互作用のビデオ上での複数選択質問のデータセットであるSocial-IQの健全性について検討する。
分析の結果,Social-IQにはある程度のバイアスがあり,適度に強い言語モデルによって活用できることがわかった。
ソーシャルIQに単純な摂動を適用して構築した,新たな挑戦的データセットであるDeSIQを紹介する。
論文 参考訳(メタデータ) (2023-10-24T06:21:34Z) - Neural Theory-of-Mind? On the Limits of Social Intelligence in Large LMs [77.88043871260466]
私たちは、今日の最大の言語モデルのひとつに、このようなソーシャルインテリジェンスを最初から欠いていることを示しています。
我々は、人中心のNLPアプローチは、マインドの神経理論に対してより効果的であるかもしれないと結論づける。
論文 参考訳(メタデータ) (2022-10-24T14:58:58Z) - Predicting Opinion Dynamics via Sociologically-Informed Neural Networks [31.77040611129394]
本稿では,理論モデルとソーシャルメディアデータを統合した社会学的インフォームドニューラルネットワーク(SINN)を提案する。
特に、理論モデルを常微分方程式(ODE)として再キャストする。
我々は、データを同時に近似し、社会科学的知識を表すODEに適合するニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2022-07-07T05:55:47Z) - Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation [63.18666008322476]
機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
論文 参考訳(メタデータ) (2021-04-09T01:54:58Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - The Use and Misuse of Counterfactuals in Ethical Machine Learning [2.28438857884398]
検討すべき事実が人種や性別などの社会的カテゴリーである場合に、反事実の使用にもっと注意を払っている。
機械学習の公正性と社会的説明可能性に対する反事実的アプローチは、社会的カテゴリとは何かという不合理な理論を必要とする可能性があると結論付けている。
論文 参考訳(メタデータ) (2021-02-09T19:28:41Z) - How social feedback processing in the brain shapes collective opinion
processes in the era of social media [0.0]
社会的フィードバックの処理に関する最近の神経科学的知見に基づいて,これらの問題に対処できる理論モデルを構築した。
少数派が結束的な集団として振る舞うと、強い多数派でさえ黙らざるを得ない。
社会的フィードバック理論の枠組みは、社会的および認知神経科学における発見の社会的レベルの含意を理解するために、社会学的理論の必要性を強調している。
論文 参考訳(メタデータ) (2020-03-18T11:06:34Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。