Hallo zusammen,
ich habe versucht multiple Seiten aus einer Webpage zu crawlen, was mir auch gelungen ist. Im nächsten Schritt würde ich gerne zwei Variablen miteinander verknüpfen.
D.h. mein Ziel wäre es, das wenn ich nach der RegionID= 7236 crawle, das mir das System automatisch die partnerID ...
Die Suche ergab 32 Treffer
- Samstag 21. November 2015, 23:01
- Forum: Allgemeine Fragen
- Thema: Crawling - Variablen miteinander verknüpfen
- Antworten: 1
- Zugriffe: 3718
- Montag 12. Oktober 2015, 13:43
- Forum: Allgemeine Fragen
- Thema: Parsing JSON mit Beautiful Soup
- Antworten: 4
- Zugriffe: 2594
Re: Parsing JSON mit Beautiful Soup
Danke für euer Feedback. Habe es nun geschafft:
response = urllib.request.urlopen("http://www.getyourguide.com/s/search.json?q=Siem+Reap&page=" + str(page))
jsondata = json.loads(response.read().decode("utf-8"))
format = (jsondata['activities'])
g_data = format.strip("'<>()[]\"` ").replace ...
response = urllib.request.urlopen("http://www.getyourguide.com/s/search.json?q=Siem+Reap&page=" + str(page))
jsondata = json.loads(response.read().decode("utf-8"))
format = (jsondata['activities'])
g_data = format.strip("'<>()[]\"` ").replace ...
- Freitag 9. Oktober 2015, 12:03
- Forum: Allgemeine Fragen
- Thema: Parsing JSON mit Beautiful Soup
- Antworten: 4
- Zugriffe: 2594
Parsing JSON mit Beautiful Soup
Hallo zusammen,
Ich versuche aus einem JSON mittels BeautifulSoup bestimmte Inhalte wie z.B. den Deeplink zu crawlen. Leider klappt das nicht wie gewünscht:
Das ist mein bisherige Logik:
import requests
from bs4 import BeautifulSoup
import json
from urllib.request import urlopen
import urllib ...
Ich versuche aus einem JSON mittels BeautifulSoup bestimmte Inhalte wie z.B. den Deeplink zu crawlen. Leider klappt das nicht wie gewünscht:
Das ist mein bisherige Logik:
import requests
from bs4 import BeautifulSoup
import json
from urllib.request import urlopen
import urllib ...
- Montag 5. Oktober 2015, 09:11
- Forum: Allgemeine Fragen
- Thema: Duplikate vom Output in Python entfernen
- Antworten: 3
- Zugriffe: 888
Re: Duplikate vom Output in Python entfernen
Danke für euer Feedback:)
- Donnerstag 1. Oktober 2015, 13:51
- Forum: Allgemeine Fragen
- Thema: Duplikate vom Output in Python entfernen
- Antworten: 3
- Zugriffe: 888
Duplikate vom Output in Python entfernen
Hallo zusammen,
habe das folgende Problem:
Beispiel:
g_data = soup.find_all("div", {"class": "itemsContent clearafter"})
for item in g_data:
header = item.find_all("div", {"class": "InnprodInfos"})
print(header[0].contents[0].text.strip())
Bekomme folgenden Output:
DMZ 3rd Tunnel ...
habe das folgende Problem:
Beispiel:
g_data = soup.find_all("div", {"class": "itemsContent clearafter"})
for item in g_data:
header = item.find_all("div", {"class": "InnprodInfos"})
print(header[0].contents[0].text.strip())
Bekomme folgenden Output:
DMZ 3rd Tunnel ...
- Dienstag 15. September 2015, 13:50
- Forum: Allgemeine Fragen
- Thema: Python+MySQL: Anführungszeichen im Datensatz löschen
- Antworten: 5
- Zugriffe: 1411
Re: Python+MySQL: Anführungszeichen im Datensatz löschen
Danke für dein Feedback. Hast mir sehr weiter geholfen
- Montag 14. September 2015, 11:13
- Forum: Allgemeine Fragen
- Thema: Python+MySQL: Anführungszeichen im Datensatz löschen
- Antworten: 5
- Zugriffe: 1411
Python+MySQL: Anführungszeichen im Datensatz löschen
Hallo zusammen,
Ich habe vor kurzem eine Homepage gecrawlt mit den Informationen die ich benötige. Und habe es danach geschafft in meine MySQL-Datenbank einzutragen. Aber das Problem ist nun, das einzelne Werte in Anführungszeichen dargestellt werden.
Header Price Deeplink PartnerID LocationID ...
Ich habe vor kurzem eine Homepage gecrawlt mit den Informationen die ich benötige. Und habe es danach geschafft in meine MySQL-Datenbank einzutragen. Aber das Problem ist nun, das einzelne Werte in Anführungszeichen dargestellt werden.
Header Price Deeplink PartnerID LocationID ...
- Dienstag 28. Juli 2015, 09:54
- Forum: Allgemeine Fragen
- Thema: Excel File Duplikate
- Antworten: 2
- Zugriffe: 812
Re: Excel File Duplikate
Danke für dein ausführliches Feedback!!! Werde es beherzigen:)
Das einzige, was ich an dem Code geändert habe, ist das ich
zu
gemacht habe, da ich Version 3 benutze.
Das einzige, was ich an dem Code geändert habe, ist das ich
Code: Alles auswählen
country2adresses.iteritems()
Code: Alles auswählen
country2adresses.items()
- Montag 27. Juli 2015, 14:56
- Forum: Allgemeine Fragen
- Thema: Excel File Duplikate
- Antworten: 2
- Zugriffe: 812
Excel File Duplikate
Hallo zusammen,
Zunächst einmal wollte eine Excel File auf Duplikate überprüfen, welches ich auch erfolgreich geschafft habe. Das Programm spuckt quasi raus, wieviele Länder wie oft in der angegebenen Spalte vorkommen.
import csv
lesdatei = open("Test_08_01_2015.csv", "r")
schreibdatei= open ...
Zunächst einmal wollte eine Excel File auf Duplikate überprüfen, welches ich auch erfolgreich geschafft habe. Das Programm spuckt quasi raus, wieviele Länder wie oft in der angegebenen Spalte vorkommen.
import csv
lesdatei = open("Test_08_01_2015.csv", "r")
schreibdatei= open ...
- Mittwoch 1. Juli 2015, 16:49
- Forum: Allgemeine Fragen
- Thema: HTML Tags entfernen
- Antworten: 2
- Zugriffe: 1255
Re: HTML Tags entfernen
Danke für dein Feedback. Habe mittlerweile auch eine andere Lösung gefunden, was deiner ähnelt:
Code: Alles auswählen
items = soup.find_all("span", {"class": "item_name"})
for item in items:
print(item.text)
- Mittwoch 1. Juli 2015, 16:20
- Forum: Allgemeine Fragen
- Thema: HTML Tags entfernen
- Antworten: 2
- Zugriffe: 1255
HTML Tags entfernen
Hallo zusammen,
versuche von einer Seite die Hotelname rauszufiltern, allerdings habe ich das Problem, das ich die HTML Tags nicht entfernen kann:
import requests
from bs4 import BeautifulSoup
import time
user_agent = {'User-agent': 'Chrome/43.0.2357.124'}
schreibdatei= open("testo.csv", "w ...
versuche von einer Seite die Hotelname rauszufiltern, allerdings habe ich das Problem, das ich die HTML Tags nicht entfernen kann:
import requests
from bs4 import BeautifulSoup
import time
user_agent = {'User-agent': 'Chrome/43.0.2357.124'}
schreibdatei= open("testo.csv", "w ...
- Sonntag 10. Mai 2015, 19:42
- Forum: Allgemeine Fragen
- Thema: Crawling - Homepage
- Antworten: 3
- Zugriffe: 1487
Re: Crawling - Homepage
Danke für dein Feedback:)
- Freitag 8. Mai 2015, 12:42
- Forum: Allgemeine Fragen
- Thema: Crawling - Homepage
- Antworten: 3
- Zugriffe: 1487
Crawling - Homepage
Hallo zusammen,
versuche derzeit mein erstes Spider/Crawling Script zu schreiben und brauche eure Hilfe/Tipps bei einer Sache. Mein Ziel ist es ein Teil des Links rauszufiltern. Solle quasi das folgende Ergebnis bekommen:
/example/view.php?id=34
Das ist mein Code:
import requests
from bs4 ...
versuche derzeit mein erstes Spider/Crawling Script zu schreiben und brauche eure Hilfe/Tipps bei einer Sache. Mein Ziel ist es ein Teil des Links rauszufiltern. Solle quasi das folgende Ergebnis bekommen:
/example/view.php?id=34
Das ist mein Code:
import requests
from bs4 ...
- Dienstag 10. Februar 2015, 11:17
- Forum: Allgemeine Fragen
- Thema: Japanisches CSV File einlesen
- Antworten: 4
- Zugriffe: 854
Re: Japanisches CSV File einlesen
Danke für euer Feedback.
Habe den Delimiter geändert. Nun funktioniert es.
# -*- coding: utf-8 -*-
import csv
import re
lesdatei = open("Japanese.csv", "r")
liste = lesdatei.readlines()
for row in liste[1:]:
felder = re.split(";", row)
print(str(felder[10]))
Habe den Delimiter geändert. Nun funktioniert es.
# -*- coding: utf-8 -*-
import csv
import re
lesdatei = open("Japanese.csv", "r")
liste = lesdatei.readlines()
for row in liste[1:]:
felder = re.split(";", row)
print(str(felder[10]))
- Montag 9. Februar 2015, 13:42
- Forum: Allgemeine Fragen
- Thema: Japanisches CSV File einlesen
- Antworten: 4
- Zugriffe: 854
Japanisches CSV File einlesen
Hallo zusammen,
würde gerne eine japanisches csv File in Python einlesen. Habe es zuerst so versucht:
import csv
import re
lesdatei = open("Japanese.csv", "r")
liste = lesdatei.readlines()
for row in liste[1:]:
felder = re.split(",|;", row)
print(str(felder[10]))
Response dazu ist ...
würde gerne eine japanisches csv File in Python einlesen. Habe es zuerst so versucht:
import csv
import re
lesdatei = open("Japanese.csv", "r")
liste = lesdatei.readlines()
for row in liste[1:]:
felder = re.split(",|;", row)
print(str(felder[10]))
Response dazu ist ...
- Dienstag 20. Januar 2015, 15:49
- Forum: Allgemeine Fragen
- Thema: Request mehrmals durchführen, wie for Schleife benutzen?
- Antworten: 30
- Zugriffe: 5197
Re: Request mehrmals durchführen, wie for Schleife benutzen?
Danke für dein Feedback!:)
- Montag 19. Januar 2015, 17:19
- Forum: Allgemeine Fragen
- Thema: Request mehrmals durchführen, wie for Schleife benutzen?
- Antworten: 30
- Zugriffe: 5197
Re: Request mehrmals durchführen, wie for Schleife benutzen?
In der Theorie komme ich ja klar, aber in der Praxis scheitert es;) Aber dennoch großen Dank für dein Feedback:) Bitte weiter um Verständnis, bin immer noch ein blutiger Anfänger
import requests
import json
response = requests.get("blabla")
data = response.json()
Hallo = data[0]["responseBodies ...
import requests
import json
response = requests.get("blabla")
data = response.json()
Hallo = data[0]["responseBodies ...
- Montag 19. Januar 2015, 14:54
- Forum: Allgemeine Fragen
- Thema: Request mehrmals durchführen, wie for Schleife benutzen?
- Antworten: 30
- Zugriffe: 5197
Re: Request mehrmals durchführen, wie for Schleife benutzen?
Könnt ihr mir Tipps geben, wie ich darauf zugreifen kann?
Schau in der Doku zu Dicts und Listen nach, welche Zugriffe möglich sind. Oder noch besser: Arbeite das Tutorial dahingehend durch! Dort werden die wichtigsten Zugriffe für diese *essenziellen* Datentypen besprochen :-)
(Wirklich, das ...
- Mittwoch 14. Januar 2015, 14:43
- Forum: Allgemeine Fragen
- Thema: Request mehrmals durchführen, wie for Schleife benutzen?
- Antworten: 30
- Zugriffe: 5197
Re: Request mehrmals durchführen, wie for Schleife benutzen?
Hallo zusammen, habe nun grad ein anderes Problem, wo ich nicht weiterkomme
import requests
counter = 0
times = 1
for r in range(times):
response = requests.get("http://192.168.1.52:8080/ws/Admin/JsonApi?partnerId=878&itemId=RANDOM_ITEM&localeCode=ID&languageCode=id&fromDate=2015/02/04&toDate ...
import requests
counter = 0
times = 1
for r in range(times):
response = requests.get("http://192.168.1.52:8080/ws/Admin/JsonApi?partnerId=878&itemId=RANDOM_ITEM&localeCode=ID&languageCode=id&fromDate=2015/02/04&toDate ...
- Dienstag 13. Januar 2015, 15:35
- Forum: Allgemeine Fragen
- Thema: Request mehrmals durchführen, wie for Schleife benutzen?
- Antworten: 30
- Zugriffe: 5197
Re: Request mehrmals durchführen, wie for Schleife benutzen?
Jep, war eine blöde Frage;)
Hat nicht auf Anhieb geklappt, aber mit Probieren bin ich auf das richtige Ergebnis gekommen:
Hat nicht auf Anhieb geklappt, aber mit Probieren bin ich auf das richtige Ergebnis gekommen:
Code: Alles auswählen
import requests
response = requests.get("blabla")
data = response.json()
Hallo = data[0]["status"]
print(Hallo)