論文の概要: An Explainable AI Approach to Large Language Model Assisted Causal Model
Auditing and Development
- arxiv url: http://arxiv.org/abs/2312.16211v1
- Date: Sat, 23 Dec 2023 17:40:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-31 03:03:47.622508
- Title: An Explainable AI Approach to Large Language Model Assisted Causal Model
Auditing and Development
- Title(参考訳): 因果モデル監査と開発を支援する大規模言語モデルへの説明可能なaiアプローチ
- Authors: Yanming Zhang, Brette Fitzgibbon, Dino Garofolo, Akshith Kota, Eric
Papenhausen, Klaus Mueller
- Abstract要約: 因果関係は疫学、社会科学、医学、工学など多くの分野で広く利用されている。
本稿では,ChatGPTのような大規模言語モデルを用いた因果関係の監査手法を提案する。
- 参考スコア(独自算出の注目度): 18.090619498704495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal networks are widely used in many fields, including epidemiology,
social science, medicine, and engineering, to model the complex relationships
between variables. While it can be convenient to algorithmically infer these
models directly from observational data, the resulting networks are often
plagued with erroneous edges. Auditing and correcting these networks may
require domain expertise frequently unavailable to the analyst. We propose the
use of large language models such as ChatGPT as an auditor for causal networks.
Our method presents ChatGPT with a causal network, one edge at a time, to
produce insights about edge directionality, possible confounders, and mediating
variables. We ask ChatGPT to reflect on various aspects of each causal link and
we then produce visualizations that summarize these viewpoints for the human
analyst to direct the edge, gather more data, or test further hypotheses. We
envision a system where large language models, automated causal inference, and
the human analyst and domain expert work hand in hand as a team to derive
holistic and comprehensive causal models for any given case scenario. This
paper presents first results obtained with an emerging prototype.
- Abstract(参考訳): 因果ネットワークは、変数間の複雑な関係をモデル化するために、疫学、社会科学、医学、工学など、多くの分野で広く使われている。
観測データから直接これらのモデルをアルゴリズムで推測することは便利であるが、結果として得られるネットワークはしばしば誤ったエッジで悩まされる。
これらのネットワークの監査と修正は、アナリストが頻繁に利用できないドメインの専門知識を必要とする可能性がある。
因果ネットワークの監査役としてchatgptなどの大規模言語モデルの利用を提案する。
提案手法では,ChatGPTに因果ネットワークを同時に提供し,エッジの方向性,共同創設者の可能性,変数の仲介について考察する。
chatgptに各因果関係のさまざまな側面を振り返ってもらい、人間の分析者がエッジを指示したり、より多くのデータを収集したり、さらに仮説を検証したりするためにこれらの視点を要約する視覚化を作成します。
我々は、大規模言語モデル、自動因果推論、そして人間アナリストとドメインエキスパートが、あらゆるケースシナリオに対して全体的かつ包括的な因果モデルを導出するチームとして手を組むシステムを構想する。
本稿では,新しいプロトタイプで得られた最初の結果を示す。
関連論文リスト
- CausalChat: Interactive Causal Model Development and Refinement Using Large Language Models [19.408447936592175]
因果関係は変数間の複雑な関係をモデル化するために多くの分野で広く使われている。
近年のアプローチでは、人間の集団参加を通じて、群衆の知恵を活用して因果ネットワークの構築が試みられている。
我々は,OpenAIのGPT-4のような大規模言語モデルが大量の文献を取り込み,学習した因果的知識を活用するという,異なるアプローチを採用する。
論文 参考訳(メタデータ) (2024-10-18T03:33:32Z) - A linguistic analysis of undesirable outcomes in the era of generative AI [4.841442157674423]
本稿では,LLama2のチャットバージョンを基盤として,生成されたコンテンツの言語的側面に着目した総合シミュレーションフレームワークを提案する。
以上の結果から,このモデルでは世代ごとの語彙的リッチコンテンツの生成が減少し,多様性が低下することが示唆された。
オートファジーは、最初のモデルをより創造的で疑わしい、混乱したものに変換し、不正確な答えをもたらす可能性がある。
論文 参考訳(メタデータ) (2024-10-16T08:02:48Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - A Reliable Framework for Human-in-the-Loop Anomaly Detection in Time Series [17.08674819906415]
HILADは、人間とAIの動的かつ双方向なコラボレーションを促進するために設計された、新しいフレームワークである。
ビジュアルインターフェースを通じて、HILADはドメインの専門家に、大規模な予期せぬモデルの振る舞いを検出し、解釈し、修正する権限を与えます。
論文 参考訳(メタデータ) (2024-05-06T07:44:07Z) - Towards Causal Analysis of Empirical Software Engineering Data: The
Impact of Programming Languages on Coding Competitions [10.51554436183424]
本稿では,構造因果モデルに基づく新しい手法について述べる。
Code Jamにおけるプログラマのパフォーマンスに関する公開データを解析するために,これらのアイデアを適用した。
全く同じデータの純粋に関連性のある解析と因果解析の間には,かなりの差が認められた。
論文 参考訳(メタデータ) (2023-01-18T13:46:16Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。