Как закрыть от индексации дубли страниц
Нужно закрыть от индексации следующие страницы:
https://site.ru/ekaterinburg/trusi?pageFashion=4
https://site.ru/ekaterinburg/trusi?pageClassic=8
https://site.ru/ekaterinburg/trusi?pageFashion=8
https://site.ru/ekaterinburg/trusi?pageClassic=4
В robots.txt добавил след. строки:
Disallow: /ekaterinburg/trusi?pageFashion=
Disallow: /ekaterinburg/trusi?pageClassic=
Но не уверен, что это оптимальный вариант. Подскажите, пожалуйста, как это сделать более универсальным условием.