معرفی شرکت ها


alexandra-ai-eval-0.1.0


Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر

توضیحات

Evaluation of finetuned models.
ویژگی مقدار
سیستم عامل -
نام فایل alexandra-ai-eval-0.1.0
نام alexandra-ai-eval
نسخه کتابخانه 0.1.0
نگهدارنده []
ایمیل نگهدارنده []
نویسنده Dan Saattrup Nielsen
ایمیل نویسنده dan.nielsen@alexandra.dk
آدرس صفحه اصلی -
آدرس اینترنتی https://pypi.org/project/alexandra-ai-eval/
مجوز MIT
# AlexandraAI-eval ### Evaluation of finetuned models ##### _(pronounced as in "Aye aye captain")_ ______________________________________________________________________ [![PyPI Status](https://badge.fury.io/py/alexandra_ai_eval.svg)](https://pypi.org/project/alexandra_ai_eval/) [![Documentation](https://img.shields.io/badge/docs-passing-green)](https://alexandrainst.github.io/AlexandraAI-eval/alexandra_ai_eval.html) [![License](https://img.shields.io/github/license/alexandrainst/AlexandraAI-eval)](https://github.com/alexandrainst/AlexandraAI-eval/blob/main/LICENSE) [![LastCommit](https://img.shields.io/github/last-commit/alexandrainst/AlexandraAI-eval)](https://github.com/alexandrainst/AlexandraAI-eval/commits/main) [![Code Coverage](https://img.shields.io/badge/Coverage-78%25-yellowgreen.svg)](https://github.com/alexandrainst/AlexandraAI-eval/tree/main/tests) ## Installation To install the package simply write the following command in your favorite terminal: ``` pip install alexandra-ai-eval ``` ## Quickstart ### Benchmarking from the Command Line The easiest way to benchmark pretrained models is via the command line interface. After having installed the package, you can benchmark your favorite model like so: ``` evaluate --model-id <model_id> --task <task> ``` Here `model_id` is the HuggingFace model ID, which can be found on the [HuggingFace Hub](https://huggingface.co/models), and `task` is the task you want to benchmark the model on, such as "ner" for named entity recognition. See all options by typing ``` evaluate --help ``` The specific model version to use can also be added after the suffix '@': ``` evaluate --model_id <model_id>@<commit> ``` It can be a branch name, a tag name, or a commit id. It defaults to 'main' for latest. Multiple models and tasks can be specified by just attaching multiple arguments. Here is an example with two models: ``` evaluate --model_id <model_id1> --model_id <model_id2> --task ner ``` See all the arguments and options available for the `evaluate` command by typing ``` evaluate --help ``` ### Benchmarking from a Script In a script, the syntax is similar to the command line interface. You simply initialise an object of the `Evaluator` class, and call this evaluate object with your favorite models and/or datasets: ``` >>> from alexandra_ai_eval import Evaluator >>> evaluator = Evaluator() >>> evaluator('<model_id>', '<task>') ``` ## Contributors If you feel like this package is missing a crucial feature, if you encounter a bug or if you just want to correct a typo in this readme file, then we urge you to join the community! Have a look at the [CONTRIBUTING.md](./CONTRIBUTING.md) file, where you can check out all the ways you can contribute to this package. :sparkles: - _Your name here?_ :tada: ## Maintainers The following are the core maintainers of the `alexandra_ai_eval` package: - [@saattrupdan](https://github.com/saattrupdan) (Dan Saattrup Nielsen; saattrupdan@alexandra.dk) - [@AJDERS](https://github.com/AJDERS) (Anders Jess Pedersen; anders.j.pedersen@alexandra.dk) ## Project structure ``` . ├── .flake8 ├── .github │   └── workflows │   ├── ci.yaml │   └── docs.yaml ├── .gitignore ├── .pre-commit-config.yaml ├── LICENSE ├── README.md ├── gfx │   └── alexandra-ai-eval-logo.png ├── makefile ├── models ├── notebooks ├── poetry.toml ├── pyproject.toml ├── src │   ├── alexandra_ai_eval │   │   ├── __init__.py │   │   ├── automatic_speech_recognition.py │   │   ├── cli.py │   │   ├── co2.py │   │   ├── config.py │   │   ├── country_codes.py │   │   ├── evaluator.py │   │   ├── exceptions.py │   │   ├── hf_hub.py │   │   ├── image_to_text.py │   │   ├── named_entity_recognition.py │   │   ├── question_answering.py │   │   ├── scoring.py │   │   ├── task.py │   │   ├── task_configs.py │   │   ├── task_factory.py │   │   ├── text_classification.py │   │   └── utils.py │   └── scripts │   ├── fix_dot_env_file.py │   └── versioning.py └── tests ├── __init__.py ├── conftest.py ├── test_cli.py ├── test_co2.py ├── test_config.py ├── test_country_codes.py ├── test_evaluator.py ├── test_exceptions.py ├── test_hf_hub.py ├── test_image_to_text.py ├── test_named_entity_recognition.py ├── test_question_answering.py ├── test_scoring.py ├── test_task.py ├── test_task_configs.py ├── test_task_factory.py ├── test_text_classification.py └── test_utils.py ```


نیازمندی

مقدار نام
>=3.4.1,<4.0.0 spacy
>=0.1.96,<1.0.0 sentencepiece
>=3.0.0,<3.21.0 protobuf
>=4.64.0,<5.0.0 tqdm
>=1.2.2,<2.0.0 seqeval
>=0.8.1,<1.0.0 huggingface-hub
>=2.4.0,<3.0.0 datasets
>=2.1.3,<3.0.0 codecarbon
>=5.9.0,<5.9.2 psutil
>=2022.7.1,<2023.0.0 fsspec
>=1.1.0,<2.0.0 termcolor
>=3.1.7,<4.0.0 gradio
>=0.4.5,<1.0.0 colorama
>=2.5.1,<3.0.0 jiwer
>=4.23.0,<5.0.0 transformers
>=0.11.0,<1.0.0 soundfile
>=0.3.0,<1.0.0 evaluate
>=0.4.0,<1.0.0 pyctcdecode
>=0.9.2,<1.0.0 librosa
>=1.13.1,<2.0.0 torch
>=0.13.1,<1.0.0 torchaudio
>=0.1.20220713,<1.0.0 pypi-kenlm
>=0.9.0,<1.0.0 tabulate


زبان مورد نیاز

مقدار نام
>=3.8,<3.11 Python


نحوه نصب


نصب پکیج whl alexandra-ai-eval-0.1.0:

    pip install alexandra-ai-eval-0.1.0.whl


نصب پکیج tar.gz alexandra-ai-eval-0.1.0:

    pip install alexandra-ai-eval-0.1.0.tar.gz