معرفی شرکت ها


MLPet-0.0.7.1


Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر

توضیحات

Package to prepare well log data for ML projects.
ویژگی مقدار
سیستم عامل OS Independent
نام فایل MLPet-0.0.7.1
نام MLPet
نسخه کتابخانه 0.0.7.1
نگهدارنده []
ایمیل نگهدارنده []
نویسنده Flavia Dias Casagrande
ایمیل نویسنده flavia.dias.casagrande@akerbp.com
آدرس صفحه اصلی https://bitbucket.org/akerbp/mlpet/
آدرس اینترنتی https://pypi.org/project/MLPet/
مجوز -
# MLPet Preprocessing tools for Petrophysics ML projects at Eureka ## Installation - Install the package by running the following (requires python 3.8 or later) pip install mlpet ## Quick start - Short example for pre-processing data prior to making a regression model: from mlpet.Datasets.shear import Sheardata # Instantiate an empty dataset object using the example settings and mappings provided ds = Sheardata( settings="support/settings_shear.yaml", mappings="support/mappings.yaml", folder_path="support/") # Populate the dataset with data from a file # (support for multiple file formats and direct cdf data collection exists) ds.load_from_pickle("support/data/shear.pkl") # The original data will be kept in ds.df_original and will remain unchanged print(ds.df_original.head()) # Split the data into train-validation sets df_train_original, df_valid_original, valid_wells = ds.train_test_split( df=ds.df_original, test_size=0.3) # Preprocess the data for training df_train, train_key_wells, feats = ds.preprocess(df_train_original) # Preprocecss accepts some keyword arguments related to various steps # (e.g. the key wells used for normalizing curves such as GR) df_valid, valid_key_wells, _ = ds.preprocess( df_valid_original, _normalize_curves={'key_wells':train_key_wells}) The procedure will be exactly the same for the lithology class. The only difference will be in the "settings". For a full list of possible settings keys see [the documentation for the main Dataset class](https://bitbucket.org/akerbp/mlpet/src/documentation/docs/mlpet/Datasets.html). Make sure that the curve names are consistent with those in the dataset. The mappings will NOT be applied during the load data step. ## API Documentation Full API documentaion of the package can be found under [docs/](https://bitbucket.org/akerbp/mlpet/src/documentation/docs/) ## For developers - to update the API documentation, from the root directory of the project run pip install pdoc pdoc --docformat google -o docs mlpet


نیازمندی

مقدار نام
>=2.31.0 cognite-sdk
>=0.8.0 imbalanced-learn
==1.0.1 joblib
>=1.19.5 numpy
>=1.3.2 pandas
>=0.24.2 scikit-learn
>=1.7.1 scipy
- pyyaml


زبان مورد نیاز

مقدار نام
>=3.8 Python


نحوه نصب


نصب پکیج whl MLPet-0.0.7.1:

    pip install MLPet-0.0.7.1.whl


نصب پکیج tar.gz MLPet-0.0.7.1:

    pip install MLPet-0.0.7.1.tar.gz