論文の概要: Deep Learning for Identifying Iran's Cultural Heritage Buildings in Need
of Conservation Using Image Classification and Grad-CAM
- arxiv url: http://arxiv.org/abs/2302.14354v1
- Date: Tue, 28 Feb 2023 07:14:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 17:48:33.339450
- Title: Deep Learning for Identifying Iran's Cultural Heritage Buildings in Need
of Conservation Using Image Classification and Grad-CAM
- Title(参考訳): 画像分類とGrad-CAMを用いたイランの文化遺産建造物の保存性に関する深層学習
- Authors: Mahdi Bahrami and Amir Albadvi
- Abstract要約: 本研究の主な目的は,イランにおけるCHBの保存プロセスにおいて,新たな深層学習(DL)手法を使用することである。
畳み込みニューラルネットワーク(CNN)はコンピュータビジョン(CV)のリテラシーの基盤であり,本稿は例外ではない。
最終的なモデルでは、手動から無人のCHB保存への移動の道を開くことができるため、精度が向上し、人為的エラーが減少する。
- 参考スコア(独自算出の注目度): 1.713291434132985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The cultural heritage buildings (CHB), which are part of mankind's history
and identity, are in constant danger of damage or in extreme situations total
destruction. That being said, it's of utmost importance to preserve them by
identifying the existent, or presumptive, defects using novel methods so that
renovation processes can be done in a timely manner and with higher accuracy.
The main goal of this research is to use new deep learning (DL) methods in the
process of preserving CHBs (situated in Iran); a goal that has been neglected
especially in developing countries such as Iran, as these countries still
preserve their CHBs using manual, and even archaic, methods that need direct
human supervision. Having proven their effectiveness and performance when it
comes to processing images, the convolutional neural networks (CNN) are a
staple in computer vision (CV) literacy and this paper is not exempt. When
lacking enough CHB images, training a CNN from scratch would be very difficult
and prone to overfitting; that's why we opted to use a technique called
transfer learning (TL) in which we used pre-trained ResNet, MobileNet, and
Inception networks, for classification. Even more, the Grad-CAM was utilized to
localize the defects to some extent. The final results were very favorable
based on those of similar research. The final proposed model can pave the way
for moving from manual to unmanned CHB conservation, hence an increase in
accuracy and a decrease in human-induced errors.
- Abstract(参考訳): 文化遺産建造物(CHB)は人類の歴史とアイデンティティの一部であり、常に被害の危険にさらされている。
そうは言っても、新しい方法で存在する、あるいは推定される欠陥を特定して、修復プロセスを適宜かつ高い精度で行えるようにすることで、それらを保存することが最も重要である。
この研究の主な目標は、イランのような発展途上国では特に無視されてきた、新しい深層学習(dl)手法(chb)を、手動で、さらには直接の人的監督を必要とする古式な手法で保存することである。
画像処理におけるその効果と性能を実証したコンボリューショナルニューラルネットワーク(CNN)は,コンピュータビジョン(CV)リテラシーの基盤であり,この論文は例外ではない。
十分なchb画像が不足している場合には、cnnをスクラッチからトレーニングすることは非常に難しく、過剰フィッティングしがちです。そのため、私たちは、事前トレーニングされたresnet、mobilenet、inception networksを使った転送学習(tl)と呼ばれるテクニックを分類に使用することにしました。
さらに、Grad-CAMは欠陥をある程度ローカライズするために使用された。
最終結果は同様の研究結果に基づいて非常に好意的であった。
最後に提案されたモデルは、手動から無人のchb保存に移行する道を開くことができるため、精度が向上し、人間によるエラーが減少する。
関連論文リスト
- Training Better Deep Learning Models Using Human Saliency [11.295653130022156]
本研究では、画像の正常領域に関する人間の判断が、ディープ畳み込みニューラルネットワーク(DCNN)トレーニングにどのように導入できるかを考察する。
本稿では,ConveYs Brain Oversight to raise Generalization (CYBORG) における損失関数の新たな構成要素を提案する。
論文 参考訳(メタデータ) (2024-10-21T16:52:44Z) - Forget but Recall: Incremental Latent Rectification in Continual Learning [21.600690867361617]
変化するデータストリームを継続的に学習する本質的な能力は、ディープニューラルネットワーク(DNN)のデシプラタムである
既存の継続学習アプローチは、リプレイの模範を保ち、学習を規則化し、あるいは新しいタスクに専用容量を割り当てる。
本稿では,Incrmental Latent Rectification (ILR) と呼ばれる,漸進学習のための未探索CL方向について検討する。
論文 参考訳(メタデータ) (2024-06-25T08:57:47Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Exploring Counterfactual Alignment Loss towards Human-centered AI [35.3493980628004]
最近の説明誘導型学習手法は、人手による注釈付き画像領域への勾配に基づく注意マップの整列を図っている。
対物生成に基づく新しい人間中心型フレームワークを提案する。
肺がん診断データセットにおける本手法の有効性を実証し,ヒトへの忠実な対応を示す。
論文 参考訳(メタデータ) (2023-10-03T03:20:07Z) - Optimizing the Neural Network Training for OCR Error Correction of
Historical Hebrew Texts [0.934612743192798]
本稿では,ヘブライOCR後補正のための軽量ニューラルネットワークを,手作業で生成したデータよりもはるかに少ない精度でトレーニングする方法を提案する。
過去のOCR新聞の分析は、共通言語とコーパス固有のOCRエラーを学習するために行われた。
論文 参考訳(メタデータ) (2023-07-30T12:59:06Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Scaling Laws Beyond Backpropagation [64.0476282000118]
因果デコーダのみの変換器を効率的に訓練するための直接フィードバックアライメントの有効性について検討した。
DFAはバックプロパゲーションよりも効率的なスケーリングを提供していないことが分かりました。
論文 参考訳(メタデータ) (2022-10-26T10:09:14Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Lifelong Object Detection [28.608982224098565]
私たちは、新しいトレーニングクラスが逐次的に到着し、モデルを漸進的に洗練するという事実を活用します。
我々は、高精度かつ効率的な予測のために、代表対象検出器であるFaster R-CNNを検討する。
論文 参考訳(メタデータ) (2020-09-02T15:08:51Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。