論文の概要: Smart Summarizer for Blind People
- arxiv url: http://arxiv.org/abs/2001.00575v1
- Date: Wed, 1 Jan 2020 20:39:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 09:27:20.476367
- Title: Smart Summarizer for Blind People
- Title(参考訳): 盲人のためのスマート要約器
- Authors: Mona teja K, Mohan Sai. S, H S S S Raviteja D, Sai Kushagra P V
- Abstract要約: 本稿では,ニュースを重要なキーワードに要約することで,毎回,全文を要約する作業を省くための効率的な手法について述べる。
本稿で扱う他の機能は、要約されたテキストを音声に変換することで、視覚障害者にも役立てることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In today's world, time is a very important resource. In our busy lives, most
of us hardly have time to read the complete news so what we have to do is just
go through the headlines and satisfy ourselves with that. As a result, we might
miss a part of the news or misinterpret the complete thing. The situation is
even worse for the people who are visually impaired or have lost their ability
to see. The inability of these people to read text has a huge impact on their
lives. There are a number of methods for blind people to read the text. Braille
script, in particular, is one of the examples, but it is a highly inefficient
method as it is really time taking and requires a lot of practice. So, we
present a method for visually impaired people based on the sense of sound which
is obviously better and more accurate than the sense of touch. This paper deals
with an efficient method to summarize news into important keywords so as to
save the efforts to go through the complete text every single time. This paper
deals with many API's and modules like the tesseract, GTTS, and many algorithms
that have been discussed and implemented in detail such as Luhn's Algorithm,
Latent Semantic Analysis Algorithm, Text Ranking Algorithm. And the other
functionality that this paper deals with is converting the summarized text to
speech so that the system can aid even the blind people.
- Abstract(参考訳): 今日の世界では、時間はとても重要な資源です。
忙しい生活の中で、私たちのほとんどが完全なニュースを読む時間がほとんどないので、私たちがすべきことは、見出しを通り抜けてそれを満たすことです。
結果として、ニュースの一部を見逃したり、完全なことを誤解したりするかもしれません。
視覚障害者や視力を失った人にとっては、状況はさらに悪化している。
これらの人々がテキストを読めないことは、彼らの生活に大きな影響を与えます。
盲人にはテキストを読むための方法がいくつかある。
特に点字は例の1つであるが、本当に時間がかかり、多くの練習を必要とするため、非常に非効率な方法である。
そこで本研究では,視覚障害者に対して,タッチ感よりも明らかに良好で正確である音感に基づく方法を提案する。
本稿では,ニュースを重要なキーワードに要約することで,毎回,全文を要約する作業を省くための効率的な手法について述べる。
本稿では, テッセラクト, GTTS, およびLunn's Algorithm, Latent Semantic Analysis Algorithm, Text Ranking Algorithmなど, これまでに議論され, 実装されている多くのアルゴリズムについて述べる。
また,本論文で扱う他の機能は,要約されたテキストを音声に変換することで,視覚障害者をも支援できるというものである。
関連論文リスト
- Efficiently Leveraging Linguistic Priors for Scene Text Spotting [63.22351047545888]
本稿では,大規模テキストコーパスから言語知識を活用する手法を提案する。
シーンテキストデータセットとよく一致したテキスト分布を生成し、ドメイン内の微調整の必要性を取り除く。
実験結果から,本手法は認識精度を向上するだけでなく,単語のより正確な局所化を可能にすることが示された。
論文 参考訳(メタデータ) (2024-02-27T01:57:09Z) - Three ways to improve feature alignment for open vocabulary detection [88.65076922242184]
ゼロショットオープンボキャブラリ検出の鍵となる問題は、視覚的特徴とテキスト的特徴の整合性である。
以前のアプローチでは、特徴ピラミッドと検出ヘッドをゼロからトレーニングし、事前トレーニング中に確立された視覚テキストの特徴アライメントを壊す。
本稿では,これらの問題を緩和する3つの方法を提案する。まず,テキストの埋め込みを強化するための簡単なスキームを用いて,学習中に見られる少数のクラスへの過度な適合を防止する。
次に、特徴ピラミッドネットワークと検出ヘッドをトレーニング可能なショートカットを含むように変更する。
最後に、より大きなコーパスを活用するために、自己学習アプローチが使用される。
論文 参考訳(メタデータ) (2023-03-23T17:59:53Z) - Graph-based Semantical Extractive Text Analysis [0.0]
本研究では,テキストの部分間の意味的類似性を組み込むことで,TextRankアルゴリズムの結果を改善する。
キーワード抽出とテキスト要約とは別に,本フレームワークに基づくトピッククラスタリングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-12-19T18:30:26Z) - Fine-Grained Visual Entailment [51.66881737644983]
そこで本稿では,テキストから画像への微粒な知識要素の論理的関係を予測することを目的として,このタスクの拡張を提案する。
従来の研究とは異なり、本手法は本質的に説明可能であり、異なるレベルの粒度で論理的予測を行う。
本手法は,手動でアノテートした知識要素のデータセットを用いて評価し,この課題に対して68.18%の精度を達成できることを示す。
論文 参考訳(メタデータ) (2022-03-29T16:09:38Z) - Language Matters: A Weakly Supervised Pre-training Approach for Scene
Text Detection and Spotting [69.77701325270047]
本稿では,シーンテキストを効果的に表現できる弱教師付き事前学習手法を提案する。
本ネットワークは,画像エンコーダと文字認識型テキストエンコーダから構成され,視覚的特徴とテキスト的特徴を抽出する。
実験により、事前訓練されたモデルは、重みを他のテキスト検出やスポッティングネットワークに転送しながら、Fスコアを+2.5%、+4.8%改善することが示された。
論文 参考訳(メタデータ) (2022-03-08T08:10:45Z) - Efficacy of BERT embeddings on predicting disaster from Twitter data [0.548253258922555]
救助機関はソーシャルメディアを監視し、災害を特定し、生命のリスクを減らす。
人間が大量のデータを手動でチェックし、災害をリアルタイムで特定することは不可能である。
先進的な文脈埋め込み法(BERT)は、同じ単語に対する異なるベクトルを異なる文脈で構築する。
BERT埋め込みは、従来の単語埋め込みよりも災害予測タスクにおいて最良の結果をもたらす。
論文 参考訳(メタデータ) (2021-08-08T17:44:29Z) - TEACHTEXT: CrossModal Generalized Distillation for Text-Video Retrieval [103.85002875155551]
本研究では,大規模言語前訓練を利用した一般化蒸留法TeachTextを提案する。
提案手法をビデオ側モダリティに拡張し,テスト時に使用するモダリティの数を効果的に削減できることを示す。
提案手法は,いくつかのビデオ検索ベンチマークの精度を著しく向上させ,テスト時の計算オーバーヘッドを増加させない。
論文 参考訳(メタデータ) (2021-04-16T17:55:28Z) - An automated approach to mitigate transcription errors in braille texts
for the Portuguese language [1.0742675209112622]
本稿では、ポルトガル語の点字テキストにおける転写誤りを軽減させる自動アプローチを提案する。
本稿では,その点字表現に基づく単語の最適な対応を提供する辞書と組み合わせた選択関数を提案する。
論文 参考訳(メタデータ) (2021-03-05T20:41:14Z) - ARTH: Algorithm For Reading Text Handily -- An AI Aid for People having
Word Processing Issues [0.0]
「ARTH」は、「テキストを楽に読み、理解する」必要性を満たすインテリジェントな方法であるアルゴリズムの自己学習セットです。
技術「ARTH」は、語彙が苦手な人や単語処理の問題を持つ人々の間で読むことの喜びの復活に焦点を当てています。
論文 参考訳(メタデータ) (2021-01-23T09:39:45Z) - Braille to Text Translation for Bengali Language: A Geometric Approach [0.0]
一般人は点字を読めない。だから教師や親類は、学習を手伝うのが難しい。
ここでは、これらの触覚アルファベットを画像化し、それらをプレーンテキストに変換する点字 to Text Translatorを提案する。
この手法は点字認識において97.25%の精度が得られる。
論文 参考訳(メタデータ) (2020-12-02T19:57:29Z) - TextHide: Tackling Data Privacy in Language Understanding Tasks [54.11691303032022]
TextHideは、トレーニングを遅くしたり、精度を下げることなく、プライバシー上のリスクを軽減する。
すべての参加者は、盗聴攻撃者がプライベートテキストデータを復元するのを防ぐために、簡単な暗号化ステップを追加する必要がある。
我々は、GLUEベンチマーク上でTextHideを評価し、TextHideが共有勾配や表現に対する攻撃を効果的に防御できることを示す。
論文 参考訳(メタデータ) (2020-10-12T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。