Перебор списка статуса url

Есть код:

import urllib3
from collections import Counter

filename = "links.json"
a = []
with open(filename, 'r') as f:
    content = f.readlines()


def links_chek():
    for i, url in enumerate(content, 1):
        http = urllib3.PoolManager()
        resp = http.request('GET', url)
        if resp.status == 404:
            print(f'Ссылка {i} не работает')
        else:
            print(f'Ссылка {i} работает')
        a.append(resp.status)
        wok = Counter(a)

    print('Не работает: ' + str(wok[404]) + ' ссылки')
    print('Работает: ' + str(wok[200]) + ' ссылки')
    print(f'Всего проверенно: {len(content)} ссылок')
    print(f'Имя файла с ссылками: {filename}')


links_chek()

На выходе получаю:

Ссылка 1 не работает
Ссылка 2 работает
Ссылка 3 работает
Ссылка 4 работает
Ссылка 5 не работает
Ссылка 6 не работает
Ссылка 7 работает
Не работает: 3 ссылки
Работает: 4 ссылки
Всего проверенно: 7 ссылок
Имя файла с ссылками: links.json

Файл "links.json" содержит:

https://***.by/
https://***.by/catalog/bakaleya/ketchup-majonez-sousy-gorchica-hren/hren/
https://***.by/catalog/bakaleya/ketchup-majonez-sousy-gorchica-hren/soevyj-sous/
https://***.by/catalog/bakaleya/ketchup-majonez-sousy-gorchica-hren/gorchica-adzhika/
https://***.by/catalog/bakaleya/ketchup-majonez-sousy-gorchica-hren/ketchup-sous-tomatnyj/
https://***.by/catalog/bakaleya/ketchup-majonez-sousy-gorchica-hren/majonez-sous-majoneznyj/
https://***.by/catalog/bakaleya/ketchup-majonez-sousy-gorchica-hren/sous-fruktovyj-yagodnyj/

Почему так происходит? Все ссылки рабочие. Заметил, что чем больше ссылок, тем ошибочней результат, может обход ссылок идет слишком быстро? Иногда статус может поменятся и не понимаю как это работает. Куда копать?


Ответы (0 шт):