論文の概要: Towards Public Administration Research Based on Interpretable Machine Learning
- arxiv url: http://arxiv.org/abs/2601.06205v1
- Date: Thu, 08 Jan 2026 11:48:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.680105
- Title: Towards Public Administration Research Based on Interpretable Machine Learning
- Title(参考訳): 解釈可能な機械学習に基づく行政研究に向けて
- Authors: Zhanyu Liu, Yang Yu,
- Abstract要約: この論文は、解釈可能な機械学習の基本原理と社会科学研究におけるその応用について論じている。
本稿では、行政分野における解釈可能な機械学習の学際的価値について考察する。
従来の因果推論手法を補完するものとして、解釈可能な機械学習は、行政の領域における定量的研究において、新しい信頼性の時代を導く。
- 参考スコア(独自算出の注目度): 8.921486397408342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal relationships play a pivotal role in research within the field of public administration. Ensuring reliable causal inference requires validating the predictability of these relationships, which is a crucial precondition. However, prediction has not garnered adequate attention within the realm of quantitative research in public administration and the broader social sciences. The advent of interpretable machine learning presents a significant opportunity to integrate prediction into quantitative research conducted in public administration. This article delves into the fundamental principles of interpretable machine learning while also examining its current applications in social science research. Building upon this foundation, the article further expounds upon the implementation process of interpretable machine learning, encompassing key aspects such as dataset construction, model training, model evaluation, and model interpretation. Lastly, the article explores the disciplinary value of interpretable machine learning within the field of public administration, highlighting its potential to enhance the generalization of inference, facilitate the selection of optimal explanations for phenomena, stimulate the construction of theoretical hypotheses, and provide a platform for the translation of knowledge. As a complement to traditional causal inference methods, interpretable machine learning ushers in a new era of credibility in quantitative research within the realm of public administration.
- Abstract(参考訳): 因果関係は行政分野の研究において重要な役割を担っている。
信頼できる因果推論を保証するには、これらの関係の予測可能性を検証する必要がある。
しかし、公共行政と幅広い社会科学における定量的研究の領域において、予測は十分な注意を引いていない。
解釈可能な機械学習の出現は、公共行政における定量的研究に予測を統合する重要な機会となる。
本稿では,解釈可能な機械学習の基本原理を考察するとともに,その社会科学研究への応用について考察する。
この基礎の上に構築されたこの論文は、データセットの構築、モデルトレーニング、モデル評価、モデル解釈といった重要な側面を含む、解釈可能な機械学習の実装プロセスをさらに説明します。
最後に, 公共行政分野における解釈型機械学習の学際的価値について考察し, 推論の一般化の促進, 現象の最適説明の選定の促進, 理論的仮説の構築の促進, 知識翻訳のプラットフォームを提供する。
従来の因果推論手法を補完するものとして、解釈可能な機械学習は、行政の領域における定量的研究において、新しい信頼性の時代を導く。
関連論文リスト
- The Quest for the Right Mediator: Surveying Mechanistic Interpretability Through the Lens of Causal Mediation Analysis [51.046457649151336]
本稿では,因果媒介分析に基づく解釈可能性研究の視点を提案する。
本稿では, 原因単位(メディエーター)の種類に応じて分類された解釈可能性の歴史と現状について述べる。
我々は,各メディエータの長所と短所について論じ,特定の種類のメディエータや検索手法が最適であるかどうかについての洞察を提供する。
論文 参考訳(メタデータ) (2024-08-02T17:51:42Z) - The Compute Divide in Machine Learning: A Threat to Academic
Contribution and Scrutiny? [1.0985060632689174]
計算の偏差は、計算集約的な研究トピックにおける学術のみの研究チームの表現の減少と一致していることを示す。
この傾向から生じる課題に対処するため、留意的に学術的な洞察を広めるためのアプローチを推奨する。
論文 参考訳(メタデータ) (2024-01-04T01:26:11Z) - Improving Prediction Performance and Model Interpretability through
Attention Mechanisms from Basic and Applied Research Perspectives [3.553493344868414]
この論文は著者の論文の要約に基づいている。
ディープラーニングモデルは、従来の機械学習モデルよりも予測性能がはるかに高い。
特定の予測プロセスの解釈や説明は依然として困難である。
論文 参考訳(メタデータ) (2023-03-24T16:24:08Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Statistical Foundation Behind Machine Learning and Its Impact on
Computer Vision [8.974457198386414]
本稿では、統計的学習における一様収束の原理を再考し、機械学習の基礎としてどのように機能するかを論じ、現在のディープラーニングアルゴリズムが解決している本質的な問題をよりよく理解しようと試みる。
コンピュータビジョンを機械学習の例として用いた議論は、近年の大規模データを活用して、表現学習に事前学習を行うことによる研究の傾向が、現実的に抽出可能な経験的損失と最終的に望まれるが、予測される損失との差を減らしていることを示している。
論文 参考訳(メタデータ) (2022-09-06T17:59:04Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。