معرفی شرکت ها


bilma-0.1.9


Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر

توضیحات

A BERT implementation for twitter in Spanish.
ویژگی مقدار
سیستم عامل -
نام فایل bilma-0.1.9
نام bilma
نسخه کتابخانه 0.1.9
نگهدارنده []
ایمیل نگهدارنده []
نویسنده Guillermo Ruiz
ایمیل نویسنده lgruiz@centrogeo.edu.mx
آدرس صفحه اصلی https://github.com/msubrayada/bilma
آدرس اینترنتی https://pypi.org/project/bilma/
مجوز -
# Bilma Bert In Latin aMericA Bilma is a BERT implementation in tensorflow and trained on the Masked Language Model task under the https://sadit.github.io/regional-spanish-models-talk-2022/ datasets. The regional models can be downloaded from http://geo.ingeotec.mx/~lgruiz/regional-models-bilma/. You will also need to download the vocabulary file which is common to all the model and regions. The accuracy of the models trained on the MLM task for different regions are: ![bilma-mlm-comp](https://user-images.githubusercontent.com/392873/163045798-89bd45c5-b654-4f16-b3e2-5cf404e12ddd.png) We also fine tuned the models for emoticon prediction, the resulting accuracy is as follows: ![bilma-cls-comp](https://user-images.githubusercontent.com/392873/163046824-0109e00f-3a54-486e-b93e-fbe09fbc7588.png) # Pre-requisites You will need TensorFlow 2.4 or newer. # Quick guide You can see the demo notebooks for a quick guide on how to use the models. Clone this repository and then run ``` bash download-emoji15-bilma.sh ``` to download the MX model. Then to load the model you can use the code: ``` from bilma import bilma_model vocab_file = "vocab_file_All.txt" model_file = "bilma_small_MX_epoch-1_classification_epochs-13.h5" model = bilma_model.load(model_file) tokenizer = bilma_model.tokenizer(vocab_file=vocab_file, max_length=280) ``` Now you will need some text: ``` texts = ["Tenemos tres dias sin internet ni senal de celular en el pueblo.", "Incomunicados en el siglo XXI tampoco hay servicio de telefonia fija", "Vamos a comer unos tacos", "Los del banco no dejan de llamarme"] toks = tokenizer.tokenize(texts) ``` With this, you are ready to use the model ``` p = model.predict(toks) tokenizer.decode_emo(p[1]) ``` which produces the output: ![emoji-output](https://user-images.githubusercontent.com/392873/165176270-77dd32ca-377e-4d29-ab4a-bc5f75913241.jpg) each emoji correspond to each entry in `texts`.


نحوه نصب


نصب پکیج whl bilma-0.1.9:

    pip install bilma-0.1.9.whl


نصب پکیج tar.gz bilma-0.1.9:

    pip install bilma-0.1.9.tar.gz