Можно ли нейросеть обучать каждый раз на новых данных?

Например в pytorch можно применять различные методы аугментации данных (в том числе регулировать вероятность их применения). Так вот получается, что каждый раз одна и та же картинка будет изменяться перед выходом по-разному. Меня интересует вопрос. Помогает ли такой способ улучшать точность модели? У меня есть несколько мыслей на этот счет

  1. Данные после аугментации становятся сложнее. Но как я понимаю, эта проблема решается бОльшим временем обучения сети и усложнением ее архитектуры)
  2. Модель больше не видит одинаковых картинок, а значит есть возможность обучиться на определенной картинке только один раз. С одной стороны хорошо, потому что разнообразия больше, с другой стороны обычно модель видит десятки-сотни раз одну и ту же картинку в процессе обучения. Может быть показывать картинку один раз недостаточно, чтобы модель действительно что-то успела выучить?

Ответы (1 шт):

Автор решения: ITBEGINER

Конечно можно, если же это не повторяющаяся модель даже в Data Science есть такая фишка которое обучает модель с помощь деревьев.

→ Ссылка