論文の概要: Beyond Model Interpretability: Socio-Structural Explanations in Machine Learning
- arxiv url: http://arxiv.org/abs/2409.03632v1
- Date: Thu, 5 Sep 2024 15:47:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 20:03:34.048691
- Title: Beyond Model Interpretability: Socio-Structural Explanations in Machine Learning
- Title(参考訳): モデル解釈可能性を超えて:機械学習における社会構造説明
- Authors: Andrew Smart, Atoosa Kasirzadeh,
- Abstract要約: 我々は、機械学習のアウトプットを規範的に健全な領域で解釈するには、第3のタイプの説明に訴える必要があると論じている。
この説明型の関連性は、機械学習モデルが独立した実体ではなく、社会構造に埋め込まれて形成されているという事実によって動機付けられている。
- 参考スコア(独自算出の注目度): 5.159407277301709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: What is it to interpret the outputs of an opaque machine learning model. One approach is to develop interpretable machine learning techniques. These techniques aim to show how machine learning models function by providing either model centric local or global explanations, which can be based on mechanistic interpretations revealing the inner working mechanisms of models or nonmechanistic approximations showing input feature output data relationships. In this paper, we draw on social philosophy to argue that interpreting machine learning outputs in certain normatively salient domains could require appealing to a third type of explanation that we call sociostructural explanation. The relevance of this explanation type is motivated by the fact that machine learning models are not isolated entities but are embedded within and shaped by social structures. Sociostructural explanations aim to illustrate how social structures contribute to and partially explain the outputs of machine learning models. We demonstrate the importance of sociostructural explanations by examining a racially biased healthcare allocation algorithm. Our proposal highlights the need for transparency beyond model interpretability, understanding the outputs of machine learning systems could require a broader analysis that extends beyond the understanding of the machine learning model itself.
- Abstract(参考訳): 不透明な機械学習モデルのアウトプットを解釈するのは何でしょう?
1つのアプローチは、解釈可能な機械学習技術を開発することである。
これらの技術は、モデル中心の局所的または大域的な説明を提供することによって機械学習モデルがどのように機能するかを示すことを目的としており、モデルの内部動作機構を明らかにする機械的解釈や、入力された特徴データ関係を示す非機械的近似に基づいている。
本稿では,特定の規範的領域における機械学習のアウトプットの解釈は,社会構造的説明と呼ばれる第3のタイプの説明に訴える必要がある,という社会哲学を論じる。
この説明型の関連性は、機械学習モデルが独立した実体ではなく、社会構造に埋め込まれて形成されているという事実によって動機付けられている。
社会構造的説明は、社会構造がどのように機械学習モデルの出力に寄与し、部分的に説明するかを説明することを目的としている。
人種的に偏った医療割当アルゴリズムを検証し,社会構造的説明の重要性を実証する。
我々の提案は、モデルの解釈可能性を超えた透明性の必要性を強調し、機械学習システムのアウトプットを理解するには、機械学習モデル自体の理解を超えて、より広範な分析が必要である。
関連論文リスト
- Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - LVLM-Interpret: An Interpretability Tool for Large Vision-Language Models [50.259006481656094]
本稿では,大規模視覚言語モデルの内部メカニズムの理解を目的とした対話型アプリケーションを提案する。
このインタフェースは, 画像パッチの解釈可能性を高めるために設計されており, 応答の生成に有効である。
本稿では,一般的な大規模マルチモーダルモデルであるLLaVAにおける障害機構の理解に,アプリケーションがどのように役立つかのケーススタディを示す。
論文 参考訳(メタデータ) (2024-04-03T23:57:34Z) - Binding Dynamics in Rotating Features [72.80071820194273]
本稿では,特徴間のアライメントを明示的に計算し,それに応じて重みを調整する「コサイン結合」機構を提案する。
これにより、自己注意と生物学的神経プロセスに直接接続し、回転する特徴に現れるオブジェクト中心の表現の基本的なダイナミクスに光を当てることができます。
論文 参考訳(メタデータ) (2024-02-08T12:31:08Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explainability in Machine Learning: a Pedagogical Perspective [9.393988089692947]
我々は、学習過程を構造化して、学生や研究者に機械学習の知識をより多く与える方法について、教育学的視点を提供する。
各種不透明かつ透明な機械学習モデルの利点と欠点について論じる。
我々はまた、学生がどんな機械学習アプリケーションと並行して説明可能性を使うことを学ぶのを助けるために、潜在的な課題を構築する方法についても論じる。
論文 参考訳(メタデータ) (2022-02-21T16:15:57Z) - Properties from Mechanisms: An Equivariance Perspective on Identifiable
Representation Learning [79.4957965474334]
教師なし表現学習の主な目標は、データ生成プロセスが潜在プロパティを回復するために「反転」することである。
この論文は「進化を支配するメカニズムの知識を活用して潜伏特性を識別するのか?」と問う。
我々は、可能なメカニズムの集合に関する知識が異なるため、不特定性の原因の完全な特徴づけを提供する。
論文 参考訳(メタデータ) (2021-10-29T14:04:08Z) - Explainable Machine Learning with Prior Knowledge: An Overview [1.1045760002858451]
機械学習モデルの複雑さは、より説明しやすいように研究を誘致している。
機械学習モデルの説明能力を改善するために,事前知識を活用することを提案する。
論文 参考訳(メタデータ) (2021-05-21T07:33:22Z) - Counterfactual Explanations for Machine Learning: A Review [5.908471365011942]
機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
論文 参考訳(メタデータ) (2020-10-20T20:08:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。