論文の概要: Looks Too Good To Be True: An Information-Theoretic Analysis of Hallucinations in Generative Restoration Models
- arxiv url: http://arxiv.org/abs/2405.16475v3
- Date: Fri, 25 Oct 2024 19:40:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:19:07.305394
- Title: Looks Too Good To Be True: An Information-Theoretic Analysis of Hallucinations in Generative Restoration Models
- Title(参考訳): 情報理論による生成的復元モデルにおける幻覚の分析
- Authors: Regev Cohen, Idan Kligvasser, Ehud Rivlin, Daniel Freedman,
- Abstract要約: 生成モデルは、しばしば実際のデータと視覚的に区別できない結果を生み出すことができる。
また、彼らは幻覚を生み出す傾向が強まっている。
本稿では,この現象を情報理論のレンズを通して検討し,不確実性と知覚の根本的なトレードオフを明らかにする。
- 参考スコア(独自算出の注目度): 13.605340325383452
- License:
- Abstract: The pursuit of high perceptual quality in image restoration has driven the development of revolutionary generative models, capable of producing results often visually indistinguishable from real data. However, as their perceptual quality continues to improve, these models also exhibit a growing tendency to generate hallucinations - realistic-looking details that do not exist in the ground truth images. Hallucinations in these models create uncertainty about their reliability, raising major concerns about their practical application. This paper investigates this phenomenon through the lens of information theory, revealing a fundamental tradeoff between uncertainty and perception. We rigorously analyze the relationship between these two factors, proving that the global minimal uncertainty in generative models grows in tandem with perception. In particular, we define the inherent uncertainty of the restoration problem and show that attaining perfect perceptual quality entails at least twice this uncertainty. Additionally, we establish a relation between distortion, uncertainty and perception, through which we prove the aforementioned uncertainly-perception tradeoff induces the well-known perception-distortion tradeoff. We demonstrate our theoretical findings through experiments with super-resolution and inpainting algorithms. This work uncovers fundamental limitations of generative models in achieving both high perceptual quality and reliable predictions for image restoration. Thus, we aim to raise awareness among practitioners about this inherent tradeoff, empowering them to make informed decisions and potentially prioritize safety over perceptual performance.
- Abstract(参考訳): 画像復元における高い知覚品質の追求は、しばしば実データと区別できない結果を生み出すことができる革命的生成モデルの開発を促した。
しかし、知覚の質が向上し続けるにつれて、これらのモデルは幻覚を生み出す傾向が増している。
これらのモデルにおける幻覚は、信頼性に関する不確実性を生じさせ、実践的な応用に対する大きな懸念を提起する。
本稿では,この現象を情報理論のレンズを通して研究し,不確実性と知覚の根本的なトレードオフを明らかにする。
我々はこれらの2つの要因の関係を厳密に分析し、生成モデルにおける世界最小の不確実性が知覚と一致して増大することを証明する。
特に、回復問題の本質的な不確実性を定義し、完全な知覚的品質を達成するには少なくとも2倍の不確実性が必要であることを示す。
さらに、歪み、不確実性、知覚の関係を確立し、上記の不確実性知覚トレードオフがよく知られた知覚歪トレードオフを誘導することを示す。
超高分解能およびインパインティングアルゴリズムによる実験により理論的知見を実証する。
この研究は、画像復元のための高い知覚品質と信頼性のある予測の両方を達成するための生成モデルの基本的限界を明らかにする。
このように、我々は、この本質的にのトレードオフに対する実践者の間での認識を高め、情報的意思決定を権限を与え、知覚的パフォーマンスよりも安全性を優先することを目指している。
関連論文リスト
- Uncertainty-Informed Volume Visualization using Implicit Neural Representation [6.909370175721755]
本研究では、スカラーフィールドデータセットをモデル化するために、不確実性を考慮した暗黙的ニューラル表現を提案する。
本研究では,2つの基本的不確実性推定手法の有効性を評価する。
我々の研究は、実世界の科学的ボリュームデータセットを頑健に分析し視覚化するのに適している。
論文 参考訳(メタデータ) (2024-08-12T09:14:23Z) - Uncertainty in latent representations of variational autoencoders optimized for visual tasks [4.919240908498475]
可変オートエンコーダ(VAE)の潜時表現における不確実性表現について検討する。
本稿では、EA-VAEと呼ばれる新しい手法が、これらの問題をいかに解決するかを示す。
EA-VAEは、コンピュータ神経科学における知覚のモデルとコンピュータビジョンにおける推論ツールの両方として有用である。
論文 参考訳(メタデータ) (2024-04-23T16:26:29Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Study of Distractors in Neural Models of Code [4.043200001974071]
ニューラルネットワークの予測に寄与する重要な特徴を見つけることは、説明可能なAIの研究の活発な領域である。
本研究では,その予測に対するモデルの信頼度に影響を与えることによって,予測に疑問を呈する特徴について考察する。
さまざまなタスク、モデル、コードのデータセットにわたる実験により、トークンの削除が予測におけるモデルの信頼性に大きな影響を与えることが判明した。
論文 参考訳(メタデータ) (2023-03-03T06:54:01Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Robustness in Deep Learning for Computer Vision: Mind the gap? [13.576376492050185]
我々は、コンピュータビジョンのためのディープラーニングにおいて、現在の定義と非敵対的堅牢性に向けての進歩を特定し、分析し、要約する。
この研究の分野は、敵対的機械学習に対して、不当にあまり注目されていないことがわかりました。
論文 参考訳(メタデータ) (2021-12-01T16:42:38Z) - Learning Uncertainty with Artificial Neural Networks for Improved
Remaining Time Prediction of Business Processes [0.15229257192293202]
本論文では,これらの手法を予測過程のモニタリングに応用する。
より正確な予測と迅速な作業に貢献できることが分かりました。
これは多くの興味深い応用をもたらし、より小さなデータセットを持つ予測システムを早期に導入し、人間とのより良い協力を促進する。
論文 参考訳(メタデータ) (2021-05-12T10:18:57Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。