معرفی شرکت ها


autograd-lib-0.0.7


Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر

توضیحات

Library to simplify autograd computations in PyTorch
ویژگی مقدار
سیستم عامل -
نام فایل autograd-lib-0.0.7
نام autograd-lib
نسخه کتابخانه 0.0.7
نگهدارنده []
ایمیل نگهدارنده []
نویسنده Yaroslav Bulatov, Kazuki Osawa
ایمیل نویسنده yaroslavvb@gmail.com
آدرس صفحه اصلی https://github.com/cybertronai/autograd-lib
آدرس اینترنتی https://pypi.org/project/autograd-lib/
مجوز -
# autograd_lib By Yaroslav Bulatov, Kazuki Osawa Library to simplify gradient computations in PyTorch. # example 1: per-example gradient norms Example of using it to compute per-example gradient norms for linear layers, using trick from https://arxiv.org/abs/1510.01799 See `example_norms.py` for a runnable example. The important parts: ``` !pip install autograd-lib from autograd_lib import autograd_lib loss_fn = ... data = ... model = ... autograd_lib.register(model) activations = {} def save_activations(layer, A, _): activations[layer] = A with autograd_lib.module_hook(save_activations): output = model(data) loss = loss_fn(output) norms = [torch.zeros(n)] def per_example_norms(layer, _, B): A = activations[layer] norms[0]+=(A*A).sum(dim=1)*(B*B).sum(dim=1) with autograd_lib.module_hook(per_example_norms): loss.backward() print('per-example gradient norms squared:', norms[0]) ``` # Example 2: Hessian quantities To compute exact Hessian, Hessian diagonal and KFAC approximation for all linear layers of a ReLU network in a single pass. See `example_hessian.py` for a self-contained example. The important parts: ``` !pip install autograd-lib autograd_lib.register(model) hess = defaultdict(float) hess_diag = defaultdict(float) hess_kfac = defaultdict(lambda: AttrDefault(float)) activations = {} def save_activations(layer, A, _): activations[layer] = A # KFAC left factor hess_kfac[layer].AA += torch.einsum("ni,nj->ij", A, A) with autograd_lib.module_hook(save_activations): output = model(data) loss = loss_fn(output, targets) def compute_hess(layer, _, B): A = activations[layer] BA = torch.einsum("nl,ni->nli", B, A) # full Hessian hess[layer] += torch.einsum('nli,nkj->likj', BA, BA) # Hessian diagonal hess_diag[layer] += torch.einsum("ni,nj->ij", B * B, A * A) # KFAC right factor hess_kfac[layer].BB += torch.einsum("ni,nj->ij", B, B) with autograd_lib.module_hook(compute_hess): autograd_lib.backward_hessian(output, loss='CrossEntropy') ``` Variations: - `autograd_lib.backward_hessian` for Hessian - `autograd_lib.backward_jacobian` for Jacobian squared - `loss.backward()` for empirical Fisher Information Matrix See autograd_lib_test.py for correctness checks against PyTorch autograd.


نیازمندی

مقدار نام
- gin-config
- seaborn
- pytorch-lightning


زبان مورد نیاز

مقدار نام
>= 3.6 Python


نحوه نصب


نصب پکیج whl autograd-lib-0.0.7:

    pip install autograd-lib-0.0.7.whl


نصب پکیج tar.gz autograd-lib-0.0.7:

    pip install autograd-lib-0.0.7.tar.gz