論文の概要: An Explainable AI Approach to Large Language Model Assisted Causal Model
Auditing and Development
- arxiv url: http://arxiv.org/abs/2312.16211v1
- Date: Sat, 23 Dec 2023 17:40:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-31 03:03:47.622508
- Title: An Explainable AI Approach to Large Language Model Assisted Causal Model
Auditing and Development
- Title(参考訳): 因果モデル監査と開発を支援する大規模言語モデルへの説明可能なaiアプローチ
- Authors: Yanming Zhang, Brette Fitzgibbon, Dino Garofolo, Akshith Kota, Eric
Papenhausen, Klaus Mueller
- Abstract要約: 因果関係は疫学、社会科学、医学、工学など多くの分野で広く利用されている。
本稿では,ChatGPTのような大規模言語モデルを用いた因果関係の監査手法を提案する。
- 参考スコア(独自算出の注目度): 18.090619498704495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal networks are widely used in many fields, including epidemiology,
social science, medicine, and engineering, to model the complex relationships
between variables. While it can be convenient to algorithmically infer these
models directly from observational data, the resulting networks are often
plagued with erroneous edges. Auditing and correcting these networks may
require domain expertise frequently unavailable to the analyst. We propose the
use of large language models such as ChatGPT as an auditor for causal networks.
Our method presents ChatGPT with a causal network, one edge at a time, to
produce insights about edge directionality, possible confounders, and mediating
variables. We ask ChatGPT to reflect on various aspects of each causal link and
we then produce visualizations that summarize these viewpoints for the human
analyst to direct the edge, gather more data, or test further hypotheses. We
envision a system where large language models, automated causal inference, and
the human analyst and domain expert work hand in hand as a team to derive
holistic and comprehensive causal models for any given case scenario. This
paper presents first results obtained with an emerging prototype.
- Abstract(参考訳): 因果ネットワークは、変数間の複雑な関係をモデル化するために、疫学、社会科学、医学、工学など、多くの分野で広く使われている。
観測データから直接これらのモデルをアルゴリズムで推測することは便利であるが、結果として得られるネットワークはしばしば誤ったエッジで悩まされる。
これらのネットワークの監査と修正は、アナリストが頻繁に利用できないドメインの専門知識を必要とする可能性がある。
因果ネットワークの監査役としてchatgptなどの大規模言語モデルの利用を提案する。
提案手法では,ChatGPTに因果ネットワークを同時に提供し,エッジの方向性,共同創設者の可能性,変数の仲介について考察する。
chatgptに各因果関係のさまざまな側面を振り返ってもらい、人間の分析者がエッジを指示したり、より多くのデータを収集したり、さらに仮説を検証したりするためにこれらの視点を要約する視覚化を作成します。
我々は、大規模言語モデル、自動因果推論、そして人間アナリストとドメインエキスパートが、あらゆるケースシナリオに対して全体的かつ包括的な因果モデルを導出するチームとして手を組むシステムを構想する。
本稿では,新しいプロトタイプで得られた最初の結果を示す。
関連論文リスト
- A Reliable Framework for Human-in-the-Loop Anomaly Detection in Time Series [17.08674819906415]
HILADは、人間とAIの動的かつ双方向なコラボレーションを促進するために設計された、新しいフレームワークである。
ビジュアルインターフェースを通じて、HILADはドメインの専門家に、大規模な予期せぬモデルの振る舞いを検出し、解釈し、修正する権限を与えます。
論文 参考訳(メタデータ) (2024-05-06T07:44:07Z) - SPADE: Sparsity-Guided Debugging for Deep Neural Networks [39.50058754026165]
解釈可能性(英: Interpretability)は、ディープラーニング理論と実践の交差における重要なオープンゴールの1つである。
本研究では,サンプル対象プルーニングを用いて,サンプル上でのネットワーク実行の"トレース"を提供するSPADEを提案する。
以上の結果から,複数面ニューロンを切断し,一貫した解釈性の向上が期待できることがわかった。
論文 参考訳(メタデータ) (2023-10-06T18:28:33Z) - Towards Causal Analysis of Empirical Software Engineering Data: The
Impact of Programming Languages on Coding Competitions [10.51554436183424]
本稿では,構造因果モデルに基づく新しい手法について述べる。
Code Jamにおけるプログラマのパフォーマンスに関する公開データを解析するために,これらのアイデアを適用した。
全く同じデータの純粋に関連性のある解析と因果解析の間には,かなりの差が認められた。
論文 参考訳(メタデータ) (2023-01-18T13:46:16Z) - Visual Auditor: Interactive Visualization for Detection and
Summarization of Model Biases [18.434430375939755]
機械学習(ML)システムがますます普及するにつれて、これらのシステムをデプロイ前にバイアスとして監査する必要がある。
近年の研究では、データのサブセット(またはスライス)を解釈可能で過小評価する形で、交差点バイアスを効果的に識別するアルゴリズムが開発されている。
モデルバイアスを監査・要約するための対話型可視化ツールであるVisual Auditorを提案する。
論文 参考訳(メタデータ) (2022-06-25T02:48:27Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。