論文の概要: AI based signage classification for linguistic landscape studies
- arxiv url: http://arxiv.org/abs/2510.22885v1
- Date: Mon, 27 Oct 2025 00:23:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.572677
- Title: AI based signage classification for linguistic landscape studies
- Title(参考訳): 言語景観研究のためのAIに基づく手話分類
- Authors: Yuqin Jiang, Song Jiang, Jacob Algrim, Trevor Harms, Maxwell Koenen, Xinya Lan, Xingyu Li, Chun-Han Lin, Jia Liu, Jiayang Sun, Henry Zenger,
- Abstract要約: 本研究では,Linguistic Landscape (LL) 解析におけるAIを用いた言語検出手法について検討する。
我々は、研究者が収集した1,449枚の画像のジオレファレンス写真データセットを構築し、光学文字認識(OCR)と言語分類にAIを適用した。
この分析によると、AIモデルは画像のすべての領域を等しく扱い、人間の通訳が無視する周辺または背景のテキストを検出する。
- 参考スコア(独自算出の注目度): 16.408396504713494
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Linguistic Landscape (LL) research traditionally relies on manual photography and annotation of public signages to examine distribution of languages in urban space. While such methods yield valuable findings, the process is time-consuming and difficult for large study areas. This study explores the use of AI powered language detection method to automate LL analysis. Using Honolulu Chinatown as a case study, we constructed a georeferenced photo dataset of 1,449 images collected by researchers and applied AI for optical character recognition (OCR) and language classification. We also conducted manual validations for accuracy checking. This model achieved an overall accuracy of 79%. Five recurring types of mislabeling were identified, including distortion, reflection, degraded surface, graffiti, and hallucination. The analysis also reveals that the AI model treats all regions of an image equally, detecting peripheral or background texts that human interpreters typically ignore. Despite these limitations, the results demonstrate the potential of integrating AI-assisted workflows into LL research to reduce such time-consuming processes. However, due to all the limitations and mis-labels, we recognize that AI cannot be fully trusted during this process. This paper encourages a hybrid approach combining AI automation with human validation for a more reliable and efficient workflow.
- Abstract(参考訳): 言語ランドスケープ(LL)の研究は伝統的に、都市空間における言語分布を調べるために、手動写真と公共標識の注釈に頼っている。
このような手法は貴重な発見をもたらすが、このプロセスは大規模な研究領域では時間がかかり困難である。
本研究では, LL解析を自動化するAIを用いた言語検出手法について検討する。
ホノルル・チャイナタウンを事例として,研究者が収集した1,449枚の画像のジオレファレンス写真データセットを構築し,光学的文字認識(OCR)と言語分類にAIを適用した。
また,精度確認のための手動検証を行った。
このモデル全体の精度は79%に達した。
また, 歪み, 反射, 劣化面, 落書き, 幻覚の5種類の相違が認められた。
この分析によると、AIモデルは画像のすべての領域を等しく扱い、人間の通訳が無視する周辺または背景のテキストを検出する。
これらの制限にもかかわらず、この結果はAI支援ワークフローをLL研究に統合し、そのような時間のかかるプロセスを減らす可能性を実証している。
しかし、あらゆる制限と間違いのため、このプロセス中にAIが完全に信頼できないと認識しています。
本稿では、AI自動化と人間の検証を組み合わせるハイブリッドアプローチを、より信頼性が高く効率的なワークフローに推奨する。
関連論文リスト
- Human Texts Are Outliers: Detecting LLM-generated Texts via Out-of-distribution Detection [71.59834293521074]
我々は,人間によるテキストと機械によるテキストを区別する枠組みを開発した。
提案手法は,DeepFakeデータセット上で98.3%のAUROCとAUPRを8.9%のFPR95で達成する。
コード、事前トレーニングされたウェイト、デモがリリースされる。
論文 参考訳(メタデータ) (2025-10-07T08:14:45Z) - Bridging the Gap Between Ideal and Real-world Evaluation: Benchmarking AI-Generated Image Detection in Challenging Scenarios [54.07895223545793]
本稿では,実世界ロバストネスデータセット(RRDataset)を導入し,3次元にわたる検出モデルの包括的評価を行う。
RRDatasetには7つの主要なシナリオの高品質なイメージが含まれている。
我々はRRDataset上で17の検出器と10の視覚言語モデル(VLM)をベンチマークし、大規模な人間実験を行った。
論文 参考訳(メタデータ) (2025-09-11T06:15:52Z) - ForenX: Towards Explainable AI-Generated Image Detection with Multimodal Large Language Models [82.04858317800097]
ForenXは画像の真正性を識別するだけでなく、人間の思考に共鳴する説明を提供する新しい手法である。
ForenXは、強力なマルチモーダル大言語モデル(MLLM)を使用して、法医学的な手がかりを分析し、解釈する。
本稿では,AI生成画像における偽証拠の記述専用のデータセットであるForgReasonを紹介する。
論文 参考訳(メタデータ) (2025-08-02T15:21:26Z) - Detecting AI Assistance in Abstract Complex Tasks [2.249916681499244]
アシスタント検出は、特に抽象的なタスクデータを見る場合、人間にとって困難である。
我々は,そのようなデータを適切に前処理した場合に,共通モデルが効果的に分類できることを示す。
3つの古典的なディープラーニングアーキテクチャにおける画像定式化の質をベンチマークする。
論文 参考訳(メタデータ) (2025-07-14T19:37:36Z) - A Sanity Check for AI-generated Image Detection [49.08585395873425]
我々はAI生成画像を検出するAI生成画像検出装置(AI生成画像検出装置)を提案する。
AIDEは最先端の手法を+3.5%、+4.6%改善した。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - DiffuSyn Bench: Evaluating Vision-Language Models on Real-World Complexities with Diffusion-Generated Synthetic Benchmarks [0.0]
本研究では,AI生成画像と人間生成画像とを区別するLVLM(Large Vision-Language Models)の能力を評価する。
この評価のための新しい自動ベンチマーク構築手法を導入する。
論文 参考訳(メタデータ) (2024-06-06T19:50:33Z) - Who Writes the Review, Human or AI? [0.36498648388765503]
本研究では,AIによる書評と人間による書評を正確に区別する手法を提案する。
提案手法は移動学習を利用して,異なるトピック間で生成したテキストを識別する。
実験の結果、元のテキストのソースを検出でき、精度96.86%に達することが示されている。
論文 参考訳(メタデータ) (2024-05-30T17:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。