Ich baue zur Zeit meinen ersten Crawler und habe Probleme mit dem Umgehen der Paginierung einer Webseite.
Ich würde gerne die Daten der ganzen Webseite abgreifen können aber ich finde keine Lösung hierfür.
Das hier ist das Code-Fragment, welches für die Suche der Webseite verantwortlich ist:
source = urllib.request.urlopen(
'https://lockme.de/de/escape-room-rangli ... urttemberg').read()
soup = bs.BeautifulSoup(source , 'lxml')
Ich wäre sehr dankbar über eine Antwort.
