論文の概要: Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement
- arxiv url: http://arxiv.org/abs/2401.10310v1
- Date: Thu, 18 Jan 2024 15:32:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 17:54:44.537312
- Title: Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement
- Title(参考訳): 社会・司法制約下における深層学習のための数学的アルゴリズム設計:アルゴリズムの透明性要件
- Authors: Holger Boche, Adalbert Fono, Gitta Kutyniok
- Abstract要約: 計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
- 参考スコア(独自算出の注目度): 65.26723285209853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning still has drawbacks in terms of trustworthiness, which
describes a comprehensible, fair, safe, and reliable method. To mitigate the
potential risk of AI, clear obligations associated to trustworthiness have been
proposed via regulatory guidelines, e.g., in the European AI Act. Therefore, a
central question is to what extent trustworthy deep learning can be realized.
Establishing the described properties constituting trustworthiness requires
that the factors influencing an algorithmic computation can be retraced, i.e.,
the algorithmic implementation is transparent. Motivated by the observation
that the current evolution of deep learning models necessitates a change in
computing technology, we derive a mathematical framework which enables us to
analyze whether a transparent implementation in a computing model is feasible.
We exemplarily apply our trustworthiness framework to analyze deep learning
approaches for inverse problems in digital and analog computing models
represented by Turing and Blum-Shub-Smale Machines, respectively. Based on
previous results, we find that Blum-Shub-Smale Machines have the potential to
establish trustworthy solvers for inverse problems under fairly general
conditions, whereas Turing machines cannot guarantee trustworthiness to the
same degree.
- Abstract(参考訳): 深層学習には、理解しやすく、公平で、安全で、信頼性の高い方法を記述する信頼度という面での欠点がある。
AIの潜在的なリスクを軽減するため、例えば欧州AI法において、信頼性に関する明確な義務が規制ガイドラインを通じて提案されている。
したがって、どの程度信頼に値する深層学習が実現できるかが中心的な疑問である。
信頼性を構成する特性の確立には、アルゴリズム計算に影響を与える要因、すなわちアルゴリズムの実装が透明であることが必要となる。
ディープラーニングモデルの現在の進化がコンピューティング技術の変化を必要とするという観測に動機づけられ、コンピューティングモデルにおける透明な実装が実現可能かどうかを解析できる数学的枠組みを導出する。
本稿では,Turing と Blum-Shub-Smale Machines で表されるデジタル・アナログ・コンピューティング・モデルにおける逆問題に対するディープラーニングのアプローチを実証的に分析する。
以上の結果から,Blum-Shub-Smale Machines は,比較的一般的な条件下での逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
関連論文リスト
- Computability of Classification and Deep Learning: From Theoretical Limits to Practical Feasibility through Quantization [53.15874572081944]
ディープラーニングフレームワークにおける計算可能性について,2つの観点から検討する。
根底にある問題が十分に解決された場合でも、ディープニューラルネットワークを訓練する際のアルゴリズム上の制限を示す。
最後に、分類と深層ネットワークトレーニングの定量化バージョンにおいて、計算可能性の制限は発生せず、一定の程度まで克服可能であることを示す。
論文 参考訳(メタデータ) (2024-08-12T15:02:26Z) - Mechanistic Interpretability for AI Safety -- A Review [28.427951836334188]
本稿では,機械的解釈可能性について概説する。
機械的解釈性は、AIシステムがより強力で精査されるにつれて、破滅的な結果を防ぐのに役立つ。
論文 参考訳(メタデータ) (2024-04-22T11:01:51Z) - Tensor Networks for Explainable Machine Learning in Cybersecurity [0.0]
マトリックス製品状態(MPS)に基づく教師なしクラスタリングアルゴリズムを開発した。
我々の調査は、MPSがオートエンコーダやGANといった従来のディープラーニングモデルと性能的に競合していることを証明している。
提案手法は,機能的確率,フォン・ノイマン・エントロピー,相互情報の抽出を自然に促進する。
論文 参考訳(メタデータ) (2023-12-29T22:35:45Z) - Towards Efficient and Trustworthy AI Through
Hardware-Algorithm-Communication Co-Design [32.815326729969904]
最先端のAIモデルは、その不確実性に関する信頼できる尺度を提供することができない。
本稿では,ハードウェアとソフトウェア設計の交差点における研究の方向性を明らかにする。
論文 参考訳(メタデータ) (2023-09-27T18:39:46Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Information Theoretic Evaluation of Privacy-Leakage, Interpretability,
and Transferability for a Novel Trustworthy AI Framework [11.764605963190817]
信頼に値するAIのガイドラインと原則は、実際にAIシステムの開発中に守るべきである。
この研究は、情報理論が倫理的AIの原則を考慮に入れられるという仮説に基づいて、新しい情報理論の信頼できるAIフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-06T09:47:06Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。