معرفی شرکت ها


fast-sentence-tokenize-0.1.9


Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر

توضیحات

Fast and Efficient Sentence Tokenization
ویژگی مقدار
سیستم عامل -
نام فایل fast-sentence-tokenize-0.1.9
نام fast-sentence-tokenize
نسخه کتابخانه 0.1.9
نگهدارنده ['Craig Trim']
ایمیل نگهدارنده ['craigtrim@gmail.com']
نویسنده Craig Trim
ایمیل نویسنده craigtrim@gmail.com
آدرس صفحه اصلی https://github.com/craigtrim/fast-sentence-tokenize
آدرس اینترنتی https://pypi.org/project/fast-sentence-tokenize/
مجوز None
# Fast Sentence Tokenizer (fast-sentence-tokenize) Best in class tokenizer ## Usage ### Import ```python from fast_sentence_tokenize import fast_sentence_tokenize ``` ### Call Tokenizer ```python results = fast_sentence_tokenize("isn't a test great!!?") ``` ### Results ```json [ "isn't", "a", "test", "great", "!", "!", "?" ] ``` Note that whitespace is not preserved in the output by default. This generally results in a more accurate parse from downstream components, but may make the reassembly of the original sentence more challenging. ### Preserve Whitespace ```python results = fast_sentence_tokenize("isn't a test great!!?", eliminate_whitespace=False) ``` ### Results ```json [ "isn't ", "a ", "test ", "great", "!", "!", "?" ] ``` This option preserves whitespace. This is useful if you want to re-assemble the tokens using the pre-existing spacing ```python assert ''.join(tokens) == input_text ```


نیازمندی

مقدار نام
- baseblock
- nltk
==3.5.0 spacy


زبان مورد نیاز

مقدار نام
>=3.8.5,<4.0.0 Python


نحوه نصب


نصب پکیج whl fast-sentence-tokenize-0.1.9:

    pip install fast-sentence-tokenize-0.1.9.whl


نصب پکیج tar.gz fast-sentence-tokenize-0.1.9:

    pip install fast-sentence-tokenize-0.1.9.tar.gz