論文の概要: Beyond transparency: computational reliabilism as an externalist epistemology of algorithms
- arxiv url: http://arxiv.org/abs/2502.20402v1
- Date: Mon, 27 Jan 2025 14:31:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 11:45:17.219823
- Title: Beyond transparency: computational reliabilism as an externalist epistemology of algorithms
- Title(参考訳): 透明性を超えて:アルゴリズムの外部主義的認識論としての計算リレービリズム
- Authors: Juan Manuel Durán,
- Abstract要約: アルゴリズムの透明性を正当化する現在のアプローチは、その内部メカニズムを解明する。
対照的に、私がReliam(CR)と呼ぶ外部主義的アルゴリズムを提唱する。
CRは、信頼できるアルゴリズムによって生成される場合、アルゴリズムの出力が正当であると仮定する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This chapter is interested in the epistemology of algorithms. As I intend to approach the topic, this is an issue about epistemic justification. Current approaches to justification emphasize the transparency of algorithms, which entails elucidating their internal mechanisms -- such as functions and variables -- and demonstrating how (or that) these produce outputs. Thus, the mode of justification through transparency is contingent on what can be shown about the algorithm and, in this sense, is internal to the algorithm. In contrast, I advocate for an externalist epistemology of algorithms that I term computational reliabilism (CR). While I have previously introduced and examined CR in the field of computer simulations ([42, 53, 4]), this chapter extends this reliabilist epistemology to encompass a broader spectrum of algorithms utilized in various scientific disciplines, with a particular emphasis on machine learning applications. At its core, CR posits that an algorithm's output is justified if it is produced by a reliable algorithm. A reliable algorithm is one that has been specified, coded, used, and maintained utilizing reliability indicators. These reliability indicators stem from formal methods, algorithmic metrics, expert competencies, cultures of research, and other scientific endeavors. The primary aim of this chapter is to delineate the foundations of CR, explicate its operational mechanisms, and outline its potential as an externalist epistemology of algorithms.
- Abstract(参考訳): この章はアルゴリズムの認識論に興味を持っている。
トピックに近づこうと考えていますが、これはてんかんの正当性に関する問題です。
現在の正当化へのアプローチでは、関数や変数などの内部メカニズムを解明するアルゴリズムの透明性を強調し、それらがアウトプットをどのように生成するか(あるいはそれ)を示す。
したがって、透明性による正当化のモードは、アルゴリズムについて何が示されるかに一致しており、この意味では、アルゴリズムの内部である。
対照的に、私は計算緩和主義(CR:Computer Reliabilism)と呼ぶアルゴリズムの外部主義的認識論を提唱する。
コンピュータシミュレーション([42, 53, 4])の分野でCRを導入して検討しましたが、この章では、様々な科学分野で使われているアルゴリズムの範囲を網羅し、特に機械学習の応用に重点を置いています。
CRは、アルゴリズムの出力が信頼できるアルゴリズムによって生成される場合、正当であると仮定する。
信頼性のあるアルゴリズムは、信頼性指標を利用して特定され、コード化され、使用され、維持されている。
これらの信頼性指標は、形式的な方法、アルゴリズムのメトリクス、専門家の能力、研究の文化、その他の科学的努力に由来する。
本章の主目的は、CRの基礎を詳述し、その運用メカニズムを詳述し、アルゴリズムの外部主義的認識論としての可能性を概説することである。
関連論文リスト
- From Decoding to Meta-Generation: Inference-time Algorithms for Large Language Models [63.188607839223046]
この調査は、推論中に計算をスケールするメリットに焦点を当てている。
我々はトークンレベルの生成アルゴリズム、メタジェネレーションアルゴリズム、効率的な生成という3つの領域を統一的な数学的定式化の下で探索する。
論文 参考訳(メタデータ) (2024-06-24T17:45:59Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Measuring, Interpreting, and Improving Fairness of Algorithms using
Causal Inference and Randomized Experiments [8.62694928567939]
本稿では,アルゴリズム決定の公平性を測り,解釈し,改善するためのMIIFフレームワークを提案する。
ランダム化実験を用いてアルゴリズムバイアスを測定し, 異なる処理, 異なる影響, 経済的価値の同時測定を可能にする。
また、ブラックボックスアルゴリズムの信念を正確に解釈し、蒸留する、説明可能な機械学習モデルを開発した。
論文 参考訳(メタデータ) (2023-09-04T19:45:18Z) - Comprehensive Algorithm Portfolio Evaluation using Item Response Theory [0.19116784879310023]
IRTは、単一の分類データセット上での機械学習アルゴリズムのパフォーマンスを評価するために応用されている。
我々は、データセットのリポジトリにまたがるアルゴリズムのポートフォリオを評価するためのIRTベースの修正フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-29T00:48:29Z) - A Gold Standard Dataset for the Reviewer Assignment Problem [117.59690218507565]
類似度スコア(Similarity score)とは、論文のレビューにおいて、レビュアーの専門知識を数値で見積もるものである。
私たちのデータセットは、58人の研究者による477の自己申告された専門知識スコアで構成されています。
2つの論文をレビュアーに関連付けるタスクは、簡単なケースでは12%~30%、ハードケースでは36%~43%である。
論文 参考訳(メタデータ) (2023-03-23T16:15:03Z) - Using the Full-text Content of Academic Articles to Identify and
Evaluate Algorithm Entities in the Domain of Natural Language Processing [7.163189900803623]
本稿では、自然言語処理(NLP)の分野を例として取り上げ、この分野の学術論文からアルゴリズムを同定する。
論文内容を手動で注釈付けしてアルゴリズムの辞書を構築し、辞書にアルゴリズムを含む文を辞書ベースのマッチングにより抽出する。
アルゴリズムに言及する記事の数は、そのアルゴリズムの影響を分析する指標として使用される。
論文 参考訳(メタデータ) (2020-10-21T08:24:18Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z) - Active Model Estimation in Markov Decision Processes [108.46146218973189]
マルコフ決定過程(MDP)をモデル化した環境の正確なモデル学習のための効率的な探索の課題について検討する。
マルコフに基づくアルゴリズムは,本アルゴリズムと極大エントロピーアルゴリズムの両方を小サンプル方式で上回っていることを示す。
論文 参考訳(メタデータ) (2020-03-06T16:17:24Z) - Algorithmic Fairness [11.650381752104298]
正確であるだけでなく、客観的かつ公正なAIアルゴリズムを開発することが不可欠である。
近年の研究では、アルゴリズムによる意思決定は本質的に不公平である可能性が示されている。
論文 参考訳(メタデータ) (2020-01-21T19:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。