Automatic Mixed Precision
torch.amp members
Automatic Mixed Precision
Author: Michael Carilli torch.cuda.amp provides convenience methods for mixed precision, where some operations use the torch.float32( float) datatype and other operations use torch.float16( half). Some ops, like linear layers and convolutions, are much faster in float16 or bfloat16. Other ops, li...
https://tutorials.pytorch.kr/recipes/recipes/amp_recipe.html

[Pytorch] apex / amp 모델 학습 빠르게 시키는 법.
github에서 pytorch 코드를 살펴보다 보면, apex, amp가 사용되는 모습을 자주 볼 수 있다. amp는 Automatic Mixed Precision의 약자로, 몇 operations들에서 float16 데이터타입을 사용해 학 속도를 향상시켜주는 방법을 제공해준다. 기존 pytorch는 데이터타입이 float32로 기본 설정이라는 것도 참고하면 좋을 것 같다. 또한 구글링을 하다보면 amp를 사용하는 방법이 apex.amp 와 torch.cuda.amp 두 방법이 나오는데, 아래 포스트를 보면 apex의 implementation들이 Pytorch에서 지원을 시작해서, apex는 이제 앞으로는 사용되지 않을 것이라고 한다. https://discuss.pytorch.org/t/torch-c..
https://dbwp031.tistory.com/33

Seonglae Cho