Является ли работа с PyTorch потокобезопасной? И в частности метод no_grad?

Можно ли использовать методы pytorch в мультипоточных обучениях и в частности использовать torch.no_grad()? Или оно может делаться только в мультипроцессных скриптах?

Сетки на каждый поток можно делать свои, но вот вызов torch.no_grad() наводит на мысль, что там используются глобальные переменные.


Ответы (1 шт):

Автор решения: Victor Telnov

Да, является потокобезопасной.

https://pytorch.org/docs/stable/generated/torch.no_grad.html "This context manager is thread local; it will not affect computation in other threads."

→ Ссылка