Перебор списка статуса url
Есть код:
import urllib3
from collections import Counter
filename = "links.json"
a = []
with open(filename, 'r') as f:
content = f.readlines()
def links_chek():
for i, url in enumerate(content, 1):
http = urllib3.PoolManager()
resp = http.request('GET', url)
if resp.status == 404:
print(f'Ссылка {i} не работает')
else:
print(f'Ссылка {i} работает')
a.append(resp.status)
wok = Counter(a)
print('Не работает: ' + str(wok[404]) + ' ссылки')
print('Работает: ' + str(wok[200]) + ' ссылки')
print(f'Всего проверенно: {len(content)} ссылок')
print(f'Имя файла с ссылками: {filename}')
links_chek()
На выходе получаю:
Ссылка 1 не работает
Ссылка 2 работает
Ссылка 3 работает
Ссылка 4 работает
Ссылка 5 не работает
Ссылка 6 не работает
Ссылка 7 работает
Не работает: 3 ссылки
Работает: 4 ссылки
Всего проверенно: 7 ссылок
Имя файла с ссылками: links.json
Файл "links.json" содержит:
https://***.by/
https://***.by/catalog/bakaleya/ketchup-majonez-sousy-gorchica-hren/hren/
https://***.by/catalog/bakaleya/ketchup-majonez-sousy-gorchica-hren/soevyj-sous/
https://***.by/catalog/bakaleya/ketchup-majonez-sousy-gorchica-hren/gorchica-adzhika/
https://***.by/catalog/bakaleya/ketchup-majonez-sousy-gorchica-hren/ketchup-sous-tomatnyj/
https://***.by/catalog/bakaleya/ketchup-majonez-sousy-gorchica-hren/majonez-sous-majoneznyj/
https://***.by/catalog/bakaleya/ketchup-majonez-sousy-gorchica-hren/sous-fruktovyj-yagodnyj/
Почему так происходит? Все ссылки рабочие. Заметил, что чем больше ссылок, тем ошибочней результат, может обход ссылок идет слишком быстро? Иногда статус может поменятся и не понимаю как это работает. Куда копать?