• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

希伯来语的空格句子标记化错误

用户头像
it1352
帮助69

问题说明

正在尝试对希伯来语使用拼写句子标记化。

import spacy
nlp = spacy.load('he')
doc = nlp(text)
sents = list(doc.sents)

我得到:

    Warning: no model found for 'he'

    Only loading the 'he' tokenizer.

Traceback (most recent call last):   
  ...
    sents = list(doc.sents)   
  File "spacy/tokens/doc.pyx", line 438, in __get__ (spacy/tokens/doc.cpp:9707)
    raise ValueError( ValueError: Sentence boundary detection requires the dependency parse, which requires data to be installed. For more info, see the documentation:  https://spacy.io/docs/usage

怎么办?

正确答案

#1

Spacy的Hebrew coverage目前非常小。它目前只有word希伯来语的标记化,大致在空格上拆分,有一些额外的规则和例外。您需要的句子词汇化/边界检测需要对句子进行更复杂的语法分析,以确定一个句子在哪里结束,另一个句子在哪里开始。这些模型需要大量带标签的训练数据,因此可用于比标记化(here的列表)更少的语言。

最初的消息是告诉您它可以执行标记化,这不需要模型,然后您得到的错误是由于没有模型来分句、执行NER或POS等。

您可以在this list中查找希伯来语NLP的其他资源。如果您找到了足够多的正确格式的标签数据,并且感觉雄心勃勃,您可以使用上述概述here训练您自己的希伯来语拼写模型。

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /reply/detail/tangbafgj
系列文章
更多 icon
同类精品
更多 icon
继续加载