論文の概要: Multimodal intelligibility of scholarly hypertext: the documentalist's
contribution. A required collaboration for serial documentisation in the
scientific editorial process
- arxiv url: http://arxiv.org/abs/2111.05039v1
- Date: Tue, 9 Nov 2021 10:28:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 16:01:42.877493
- Title: Multimodal intelligibility of scholarly hypertext: the documentalist's
contribution. A required collaboration for serial documentisation in the
scientific editorial process
- Title(参考訳): 学術的ハイパーテキストのマルチモーダル知性:文書学者の貢献。
科学編集プロセスにおける連続文書化に必要なコラボレーション
- Authors: G\'erald Kembellec (DHIP = IHA, DICEN-IDF)
- Abstract要約: 本稿では,編集職とオンライン出版職の境界線が強みを失っていることを示す。
我々は特に、よりトリッキーなハイパーテキストのドキュメンテーションプロセスについて考えています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article shows that the boundaries between the editing and online
publishingprofessions are losing their strength. In this context it would only
make sense that the wayhypertexts are documented be renewed, especially facing
of the Web's evolution. We arethinking in particular of the trickier scholar
hypertexts documentation process - specifically inscientific or cultural
contexts. The purpose of this article is to demonstrate that, consideringthe
numerous branches of the Web, the hypertext enhance of a document of quality
can onlybe done through a proper dialogue between authors, editors, and
broadcasters. It would satisfythe readership as they could reach the
appropriate information. It will also be shown that eachactor in this
auctorial-editorial process would be a gainer. Indeed, a qualitative
formalizationwork would be coupled with a strong broadcasting scope. Finally,
we will point out that thiswork of mediating must be led by an actor of
information-communication, to make the textunderstandable to both humans and
machines. This meditative act is designated here under theterm of serial
documentarisation.
- Abstract(参考訳): 本稿では,編集職とオンライン出版職の境界線が強みを失っていることを示す。
この文脈では、特にWebの進化に直面して、ハイパーテキストの文書化が更新されることは理にかなっている。
私たちは特に、よりトリッキーな学者ハイパーテキストの文書化プロセスについて考えています。
本稿の目的は,Web の多くの分野を考慮すると,文書品質のハイパーテキスト向上は,著者,編集者,放送者間の適切な対話を通じてのみ可能であることを示すことである。
読者が適切な情報にたどり着くと、読者は満足するだろう。
また、この教育・教育プロセスにおける各アクタがゲインとなることも示される。
実際、質的な形式化作業は、強い放送範囲と結合される。
最後に、このメディア化の作業は情報通信のアクターが主導し、テキストを人間と機械の両方に理解できるようにする必要があると指摘する。
本法は、連続文書化の期間において、ここで指定される。
関連論文リスト
- Contextual Document Embeddings [77.22328616983417]
本稿では,コンテキスト化された文書埋め込みのための2つの補完手法を提案する。
第一に、文書近傍を明示的にバッチ内コンテキスト損失に組み込む別のコントラスト学習目標である。
第二に、隣接する文書情報をエンコードされた表現に明示的にエンコードする新しいコンテキストアーキテクチャ。
論文 参考訳(メタデータ) (2024-10-03T14:33:34Z) - Contextualized Diffusion Models for Text-Guided Image and Video Generation [67.69171154637172]
条件拡散モデルは高忠実度テキスト誘導視覚生成および編集において優れた性能を示した。
本研究では,テキスト条件と視覚的サンプル間の相互作用とアライメントを包含するクロスモーダルコンテキストを組み込むことにより,コンテキスト拡散モデル(ContextDiff)を提案する。
理論的導出を伴うDDPMとDDIMの両方にモデルを一般化し、テキスト・ツー・イメージ生成とテキスト・ツー・ビデオ編集という2つの課題を伴う評価において、モデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-26T15:01:16Z) - Television Discourse Decoded: Comprehensive Multimodal Analytics at Scale [5.965160962617209]
我々は、インドからのプライムタイムニュース討論番組に焦点をあてて、テレビ放送された討論を分析するという複雑な課題に取り組む。
以前は、しばしばテキストのみに頼っていたが、これらの議論のマルチモーダルな本質を捉えるには不足していた。
大規模マルチメディア分析に先進的なコンピュータビジョンと音声テキスト技術を用いた総合的自動ツールキットを提案する。
論文 参考訳(メタデータ) (2024-02-20T01:20:31Z) - PaperCard for Reporting Machine Assistance in Academic Writing [48.33722012818687]
2022年11月にOpenAIが発表した質問応答システムChatGPTは,学術論文作成に活用可能な,さまざまな機能を実証した。
これは学術における著者概念に関する批判的な疑問を提起する。
我々は、人間の著者が記述プロセスにおけるAIの使用を透過的に宣言するための文書である"PaperCard"というフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T14:28:04Z) - DAPR: A Benchmark on Document-Aware Passage Retrieval [57.45793782107218]
我々は,このタスクemphDocument-Aware Passage Retrieval (DAPR)を提案する。
State-of-The-Art(SoTA)パスレトリバーのエラーを分析しながら、大きなエラー(53.5%)は文書コンテキストの欠如に起因する。
提案するベンチマークにより,検索システムの開発・比較を今後行うことができる。
論文 参考訳(メタデータ) (2023-05-23T10:39:57Z) - An Interactive UI to Support Sensemaking over Collections of Parallel
Texts [15.401895433726558]
大量の論文のコーパスでは、相互に比較し、相互に比較することが認知的に求められています。
AVTALERは、人々のユニークなスキル、文脈認識、知識を、自動化の強みと組み合わせて提示する。
論文 参考訳(メタデータ) (2023-03-11T01:04:25Z) - Cross-Modal Entity Matching for Visually Rich Documents [4.8119678510491815]
視覚的にリッチなドキュメントは、視覚的な手がかりを使ってセマンティクスを強化します。
これらのドキュメントの構造化クエリを可能にする既存の作業は、これを考慮に入れない。
この制限に対処するクロスモーダルなエンティティマッチングフレームワークであるJunoを提案する。
論文 参考訳(メタデータ) (2023-03-01T18:26:14Z) - CitationIE: Leveraging the Citation Graph for Scientific Information
Extraction [89.33938657493765]
引用論文と引用論文の参照リンクの引用グラフを使用する。
最先端技術に対するエンド・ツー・エンドの情報抽出の大幅な改善を観察する。
論文 参考訳(メタデータ) (2021-06-03T03:00:12Z) - How to Train Your Agent to Read and Write [52.24605794920856]
研究論文の読み書きは、資格のある研究者が習得すべき最も特権のある能力の1つである。
読者が論文を読み、要約できるようにインテリジェントなエージェントを訓練し、おそらく新しい論文を書くための潜在的な知識の手がかりを発見し、活用できれば、それは魅力的です。
本研究では,入力段落から知識グラフ(KG)を抽出して潜在的な知識を発見できるtextitReader,新規段落を生成するgraph-to-text TextitWriter,およびtextitから構成されるDeep ReAder-Writer(DRAW)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-01-04T12:22:04Z) - BaitWatcher: A lightweight web interface for the detection of
incongruent news headlines [27.29585619643952]
BaitWatcherは軽量なWebインターフェースで、ニュース記事の見出しをクリックする前に、読者が不一致の可能性を推定する。
BaiittWatcherは階層的リカレントエンコーダを使用して、ニュース見出しとその関連するボディテキストの複雑なテキスト表現を効率的に学習する。
論文 参考訳(メタデータ) (2020-03-23T23:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。