論文の概要: The state of scientific PDF accessibility in repositories: A survey in
Switzerland
- arxiv url: http://arxiv.org/abs/2305.14041v1
- Date: Tue, 23 May 2023 13:13:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-05-24 16:09:03.662283
- Title: The state of scientific PDF accessibility in repositories: A survey in
Switzerland
- Title(参考訳): リポジトリにおける科学PDFアクセシビリティの現状:スイスにおける調査
- Authors: Alireza Darvishy, Rolf Sethe, Ines Engler, Oriane Pierres, Juliet
Manning
- Abstract要約: 本調査は,スイスのオンラインリポジトリにおけるPDF文書の質を分析した。
視覚障害者に対するアクセシビリティについて検討した。
調査には複数のスイス大学リポジトリの管理者や責任者へのインタビューも含まれていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This survey analyzed the quality of the PDF documents on online repositories
in Switzerland, examining their accessibility for people with visual
impairments. Two minimal accessibility features were analyzed: the PDFs had to
have tags and a hierarchical heading structure. The survey also included
interviews with the managers or heads of multiple Swiss universities'
repositories to assess the general opinion and knowledge of PDF accessibility.
An analysis of interviewee responses indicates an overall lack of awareness of
PDF accessibility, and showed that online repositories currently have no
concrete plans to address the issue. This paper concludes by presenting a set
of recommendations for online repositories to improve the accessibility of
their PDF documents.
- Abstract(参考訳): 本調査は、スイスのオンラインリポジトリにおけるPDF文書の品質を分析し、視覚障害者に対するアクセシビリティを検討した。
2つの最小限のアクセシビリティ機能が分析された。PDFにはタグと階層的な方向構造が必要だった。
調査には、PDFアクセシビリティに関する一般的な意見や知識を評価するため、複数のスイス大学のリポジトリの管理者や責任者へのインタビューも含まれていた。
インタビュアーの回答の分析は、PDFアクセシビリティに対する全体的な認識の欠如を示し、オンラインリポジトリにはこの問題に対処する具体的な計画がないことを示した。
本稿では,PDF文書のアクセス性を向上させるために,オンラインリポジトリのレコメンデーションセットを提示する。
関連論文リスト
- Integrity Shield A System for Ethical AI Use & Authorship Transparency in Assessments [10.808479217513181]
項目レベルの透かしをPDFに埋め込んだ文書層透かしシステムであるIntegity Shieldを提案する。
これらの透かしは、MLLMが保護された試験用PDFに応答するのを一貫して防ぎ、安定したアイテムレベルの署名をエンコードする。
私たちのデモでは、インストラクターが試験をアップロードし、透かしの振る舞いをプレビューし、AIのパフォーマンスと作者の証拠を検査するインタラクティブなインターフェースを披露しています。
論文 参考訳(メタデータ) (2026-01-16T08:44:58Z) - PaperAudit-Bench: Benchmarking Error Detection in Research Papers for Critical Automated Peer Review [54.141490756509306]
本稿では、エラーデータセットであるPaperAudit-Datasetと、自動レビューフレームワークであるPaperAudit-Reviewの2つのコンポーネントからなるPaperAudit-Benchを紹介する。
PaperAudit-Benchの実験では、モデルと検出深さの誤差検出可能性に大きなばらつきが示された。
本研究では,SFTおよびRLによる軽量LLM検出器のトレーニングをサポートし,計算コストの削減による効率的な誤り検出を実現する。
論文 参考訳(メタデータ) (2026-01-07T04:26:12Z) - OpenNovelty: An LLM-powered Agentic System for Verifiable Scholarly Novelty Assessment [63.662126457336534]
OpenNoveltyは、透明で証拠に基づく新規性分析のためのエージェントシステムである。
回収された実論文のすべての評価を根拠にし、検証可能な判断を確実にする。
OpenNoveltyは、公正で一貫性があり、エビデンスに支えられたピアレビューを促進するスケーラブルなツールで、研究コミュニティに力を与えることを目指している。
論文 参考訳(メタデータ) (2026-01-04T15:48:51Z) - Meet Your New Client: Writing Reports for AI -- Benchmarking Information Loss in Market Research Deliverables [0.0]
本研究では,RAG導入時の情報損失を評価する。
テキストは確実に抽出されるが、チャートやダイアグラムのような複雑なオブジェクトから重要な情報が失われる。
これは、研究の洞察が翻訳で失われないようにするために、専門的でAIネイティブな成果物が必要であることを示唆している。
論文 参考訳(メタデータ) (2025-08-17T12:05:44Z) - Analyzing PDFs like Binaries: Adversarially Robust PDF Malware Analysis via Intermediate Representation and Language Model [27.85605747467984]
悪意のあるPDFファイルは、永続的な脅威として現れ、Webベースの攻撃において一般的な攻撃ベクターとなっている。
PDFマルウェアは、しばしば敵の攻撃を受けやすく、その信頼性を損なう。
本稿では,PDF特徴抽出とPDFマルウェア検出のための新しい手法を提案する。
論文 参考訳(メタデータ) (2025-06-20T17:08:08Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - OmniDocBench: Benchmarking Diverse PDF Document Parsing with Comprehensive Annotations [22.336858733121158]
OmniDocBenchは9つのドキュメントソースにまたがる高品質なアノテーションを特徴とする新しいベンチマークです。
パイプラインベースの手法とエンドツーエンドのビジョン言語モデルの両方を徹底的に評価する。
論文 参考訳(メタデータ) (2024-12-10T16:05:56Z) - Usefulness of LLMs as an Author Checklist Assistant for Scientific Papers: NeurIPS'24 Experiment [59.09144776166979]
大規模言語モデル(LLM)は、科学的ピアレビューを支援する上で有望だが議論の余地のあるツールである。
本研究は,論文提出を提出基準に適合させるツールとして,会議環境におけるLCMの有用性を評価する。
論文 参考訳(メタデータ) (2024-11-05T18:58:00Z) - A Comparative Study of PDF Parsing Tools Across Diverse Document Categories [0.0]
DocLayNetデータセットを使用して、6つのドキュメントカテゴリで10の人気のあるPDF解析ツールを比較した。
テキスト抽出では、PyMuPDFとpypdfiumは概して他のものよりも優れていたが、すべてのテキスト抽出は科学と特許の文書で苦労した。
テーブル検出では、TATRは金融、特許、法と規制、科学のカテゴリーで優れている。
論文 参考訳(メタデータ) (2024-10-13T15:11:31Z) - A Mixed-Methods Study of Open-Source Software Maintainers On Vulnerability Management and Platform Security Features [6.814841205623832]
本稿では,OSSメンテナの脆弱性管理とプラットフォームセキュリティ機能について考察する。
サプライチェーンの不信や、脆弱性管理の自動化の欠如が、最も困難であることに気付きました。
プラットフォームのセキュリティ機能を採用する上での障壁は、認識の欠如と、それらが必要ないという認識の欠如である。
論文 参考訳(メタデータ) (2024-09-12T00:15:03Z) - Uncovering the Role of Support Infrastructure in Clickbait PDF Campaigns [8.286258703664688]
ClickbaitのPDFは、複数のWeb攻撃のエントリーポイントであり、悪用されたウェブサイトや悪用されたウェブサイトにアップロードされたため、検索結果のランクが高い。
攻撃者がPDFアップロードのホスティングタイプを区別するか、ホストにどれくらいの時間依存しているか、悪用にどう反応するかは不明だ。
我々は,17ヶ月で177,835ホストが提供した4,648,939個のクリックベイトPDFデータを収集し,ホストのリアルタイム分析を行った。
論文 参考訳(メタデータ) (2024-08-12T13:23:11Z) - ROAST: Review-level Opinion Aspect Sentiment Target Joint Detection for ABSA [50.90538760832107]
本研究は新たな課題であるROAST(Review-Level Opinion Aspect Sentiment Target)を提示する。
ROASTは、文章レベルのABSAとテキストレベルのABSAのギャップを埋めようとしている。
利用可能なデータセットを拡張してROASTを有効にし、以前の研究で指摘された欠点に対処します。
論文 参考訳(メタデータ) (2024-05-30T17:29:15Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Revolutionizing Retrieval-Augmented Generation with Enhanced PDF
Structure Recognition [0.0]
主要な基盤モデル企業が Embedding と Chat API インターフェースをオープンし,LangChain などのフレームワークがすでに RAG プロセスを統合している。
本稿は, 高品質テキストコーパスにアクセスする前提に依存している。
パン光学およびピンポイントPDFを備えたRAGシステムChatDOCは,より正確で完全なセグメントを検索し,より良い回答を得る。
論文 参考訳(メタデータ) (2024-01-23T09:54:36Z) - PDFVQA: A New Dataset for Real-World VQA on PDF Documents [2.105395241374678]
文書ベースのビジュアル質問回答は、自然言語質問の条件下での文書イメージの文書理解を検証する。
我々のPDF-VQAデータセットは、単一のドキュメントページ上の制限を、複数のページの全ドキュメントに対して質問する新しいスケールに拡張する。
論文 参考訳(メタデータ) (2023-04-13T12:28:14Z) - The Semantic Reader Project: Augmenting Scholarly Documents through
AI-Powered Interactive Reading Interfaces [54.2590226904332]
本稿では,研究論文を対象とした動的読解インタフェースの自動作成を目的としたセマンティック・リーダー・プロジェクトについて述べる。
10のプロトタイプインターフェースが開発され、300人以上の参加者と現実世界のユーザが読書体験を改善している。
本論文は,研究論文を読む際,学者と公衆の面を巡って構築する。
論文 参考訳(メタデータ) (2023-03-25T02:47:09Z) - NLPeer: A Unified Resource for the Computational Study of Peer Review [58.71736531356398]
NLPeer - 5万以上の論文と5つの異なる会場からの1万1千件のレビューレポートからなる、初めて倫理的にソースされたマルチドメインコーパス。
従来のピアレビューデータセットを拡張し、解析および構造化された論文表現、豊富なメタデータ、バージョニング情報を含む。
我々の研究は、NLPなどにおけるピアレビューの体系的、多面的、エビデンスに基づく研究への道のりをたどっている。
論文 参考訳(メタデータ) (2022-11-12T12:29:38Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Recognizing Families In the Wild: White Paper for the 4th Edition Data
Challenge [91.55319616114943]
本稿では,Recognizing Families In the Wild(RFIW)評価における支援課題(親族検証,三対象検証,行方不明児の検索・検索)を要約する。
本研究の目的は、2020年のRFIWチャレンジと、将来的な方向性の予測について述べることである。
論文 参考訳(メタデータ) (2020-02-15T02:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。