Die Suche ergab 32 Treffer

von SeriousRuffy
Samstag 21. November 2015, 23:01
Forum: Allgemeine Fragen
Thema: Crawling - Variablen miteinander verknüpfen
Antworten: 1
Zugriffe: 3718

Crawling - Variablen miteinander verknüpfen

Hallo zusammen,

ich habe versucht multiple Seiten aus einer Webpage zu crawlen, was mir auch gelungen ist. Im nächsten Schritt würde ich gerne zwei Variablen miteinander verknüpfen.

D.h. mein Ziel wäre es, das wenn ich nach der RegionID= 7236 crawle, das mir das System automatisch die partnerID ...
von SeriousRuffy
Montag 12. Oktober 2015, 13:43
Forum: Allgemeine Fragen
Thema: Parsing JSON mit Beautiful Soup
Antworten: 4
Zugriffe: 2594

Re: Parsing JSON mit Beautiful Soup

Danke für euer Feedback. Habe es nun geschafft:

response = urllib.request.urlopen("http://www.getyourguide.com/s/search.json?q=Siem+Reap&page=" + str(page))
jsondata = json.loads(response.read().decode("utf-8"))
format = (jsondata['activities'])
g_data = format.strip("'<>()[]\"` ").replace ...
von SeriousRuffy
Freitag 9. Oktober 2015, 12:03
Forum: Allgemeine Fragen
Thema: Parsing JSON mit Beautiful Soup
Antworten: 4
Zugriffe: 2594

Parsing JSON mit Beautiful Soup

Hallo zusammen,

Ich versuche aus einem JSON mittels BeautifulSoup bestimmte Inhalte wie z.B. den Deeplink zu crawlen. Leider klappt das nicht wie gewünscht:


Das ist mein bisherige Logik:


import requests
from bs4 import BeautifulSoup
import json
from urllib.request import urlopen
import urllib ...
von SeriousRuffy
Montag 5. Oktober 2015, 09:11
Forum: Allgemeine Fragen
Thema: Duplikate vom Output in Python entfernen
Antworten: 3
Zugriffe: 888

Re: Duplikate vom Output in Python entfernen

Danke für euer Feedback:)
von SeriousRuffy
Donnerstag 1. Oktober 2015, 13:51
Forum: Allgemeine Fragen
Thema: Duplikate vom Output in Python entfernen
Antworten: 3
Zugriffe: 888

Duplikate vom Output in Python entfernen

Hallo zusammen,

habe das folgende Problem:

Beispiel:


g_data = soup.find_all("div", {"class": "itemsContent clearafter"})
for item in g_data:
header = item.find_all("div", {"class": "InnprodInfos"})
print(header[0].contents[0].text.strip())


Bekomme folgenden Output:


DMZ 3rd Tunnel ...
von SeriousRuffy
Dienstag 15. September 2015, 13:50
Forum: Allgemeine Fragen
Thema: Python+MySQL: Anführungszeichen im Datensatz löschen
Antworten: 5
Zugriffe: 1411

Re: Python+MySQL: Anführungszeichen im Datensatz löschen

Danke für dein Feedback. Hast mir sehr weiter geholfen
von SeriousRuffy
Montag 14. September 2015, 11:13
Forum: Allgemeine Fragen
Thema: Python+MySQL: Anführungszeichen im Datensatz löschen
Antworten: 5
Zugriffe: 1411

Python+MySQL: Anführungszeichen im Datensatz löschen

Hallo zusammen,

Ich habe vor kurzem eine Homepage gecrawlt mit den Informationen die ich benötige. Und habe es danach geschafft in meine MySQL-Datenbank einzutragen. Aber das Problem ist nun, das einzelne Werte in Anführungszeichen dargestellt werden.


Header Price Deeplink PartnerID LocationID ...
von SeriousRuffy
Dienstag 28. Juli 2015, 09:54
Forum: Allgemeine Fragen
Thema: Excel File Duplikate
Antworten: 2
Zugriffe: 812

Re: Excel File Duplikate

Danke für dein ausführliches Feedback!!! Werde es beherzigen:)

Das einzige, was ich an dem Code geändert habe, ist das ich

Code: Alles auswählen

country2adresses.iteritems()
zu

Code: Alles auswählen

country2adresses.items()
gemacht habe, da ich Version 3 benutze.
von SeriousRuffy
Montag 27. Juli 2015, 14:56
Forum: Allgemeine Fragen
Thema: Excel File Duplikate
Antworten: 2
Zugriffe: 812

Excel File Duplikate

Hallo zusammen,

Zunächst einmal wollte eine Excel File auf Duplikate überprüfen, welches ich auch erfolgreich geschafft habe. Das Programm spuckt quasi raus, wieviele Länder wie oft in der angegebenen Spalte vorkommen.


import csv


lesdatei = open("Test_08_01_2015.csv", "r")
schreibdatei= open ...
von SeriousRuffy
Mittwoch 1. Juli 2015, 16:49
Forum: Allgemeine Fragen
Thema: HTML Tags entfernen
Antworten: 2
Zugriffe: 1255

Re: HTML Tags entfernen

Danke für dein Feedback. Habe mittlerweile auch eine andere Lösung gefunden, was deiner ähnelt:

Code: Alles auswählen

items = soup.find_all("span", {"class": "item_name"})
for item in items:
    print(item.text)
von SeriousRuffy
Mittwoch 1. Juli 2015, 16:20
Forum: Allgemeine Fragen
Thema: HTML Tags entfernen
Antworten: 2
Zugriffe: 1255

HTML Tags entfernen

Hallo zusammen,

versuche von einer Seite die Hotelname rauszufiltern, allerdings habe ich das Problem, das ich die HTML Tags nicht entfernen kann:



import requests
from bs4 import BeautifulSoup
import time

user_agent = {'User-agent': 'Chrome/43.0.2357.124'}

schreibdatei= open("testo.csv", "w ...
von SeriousRuffy
Sonntag 10. Mai 2015, 19:42
Forum: Allgemeine Fragen
Thema: Crawling - Homepage
Antworten: 3
Zugriffe: 1487

Re: Crawling - Homepage

Danke für dein Feedback:)
von SeriousRuffy
Freitag 8. Mai 2015, 12:42
Forum: Allgemeine Fragen
Thema: Crawling - Homepage
Antworten: 3
Zugriffe: 1487

Crawling - Homepage

Hallo zusammen,

versuche derzeit mein erstes Spider/Crawling Script zu schreiben und brauche eure Hilfe/Tipps bei einer Sache. Mein Ziel ist es ein Teil des Links rauszufiltern. Solle quasi das folgende Ergebnis bekommen:
/example/view.php?id=34

Das ist mein Code:


import requests
from bs4 ...
von SeriousRuffy
Dienstag 10. Februar 2015, 11:17
Forum: Allgemeine Fragen
Thema: Japanisches CSV File einlesen
Antworten: 4
Zugriffe: 854

Re: Japanisches CSV File einlesen

Danke für euer Feedback.

Habe den Delimiter geändert. Nun funktioniert es.


# -*- coding: utf-8 -*-
import csv
import re


lesdatei = open("Japanese.csv", "r")


liste = lesdatei.readlines()

for row in liste[1:]:
felder = re.split(";", row)
print(str(felder[10]))

von SeriousRuffy
Montag 9. Februar 2015, 13:42
Forum: Allgemeine Fragen
Thema: Japanisches CSV File einlesen
Antworten: 4
Zugriffe: 854

Japanisches CSV File einlesen

Hallo zusammen,

würde gerne eine japanisches csv File in Python einlesen. Habe es zuerst so versucht:


import csv
import re

lesdatei = open("Japanese.csv", "r")
liste = lesdatei.readlines()

for row in liste[1:]:
felder = re.split(",|;", row)
print(str(felder[10]))


Response dazu ist ...
von SeriousRuffy
Montag 19. Januar 2015, 17:19
Forum: Allgemeine Fragen
Thema: Request mehrmals durchführen, wie for Schleife benutzen?
Antworten: 30
Zugriffe: 5197

Re: Request mehrmals durchführen, wie for Schleife benutzen?

In der Theorie komme ich ja klar, aber in der Praxis scheitert es;) Aber dennoch großen Dank für dein Feedback:) Bitte weiter um Verständnis, bin immer noch ein blutiger Anfänger


import requests
import json
response = requests.get("blabla")
data = response.json()
Hallo = data[0]["responseBodies ...
von SeriousRuffy
Montag 19. Januar 2015, 14:54
Forum: Allgemeine Fragen
Thema: Request mehrmals durchführen, wie for Schleife benutzen?
Antworten: 30
Zugriffe: 5197

Re: Request mehrmals durchführen, wie for Schleife benutzen?


Könnt ihr mir Tipps geben, wie ich darauf zugreifen kann?
Schau in der Doku zu Dicts und Listen nach, welche Zugriffe möglich sind. Oder noch besser: Arbeite das Tutorial dahingehend durch! Dort werden die wichtigsten Zugriffe für diese *essenziellen* Datentypen besprochen :-)

(Wirklich, das ...
von SeriousRuffy
Mittwoch 14. Januar 2015, 14:43
Forum: Allgemeine Fragen
Thema: Request mehrmals durchführen, wie for Schleife benutzen?
Antworten: 30
Zugriffe: 5197

Re: Request mehrmals durchführen, wie for Schleife benutzen?

Hallo zusammen, habe nun grad ein anderes Problem, wo ich nicht weiterkomme


import requests
counter = 0
times = 1
for r in range(times):
response = requests.get("http://192.168.1.52:8080/ws/Admin/JsonApi?partnerId=878&itemId=RANDOM_ITEM&localeCode=ID&languageCode=id&fromDate=2015/02/04&toDate ...
von SeriousRuffy
Dienstag 13. Januar 2015, 15:35
Forum: Allgemeine Fragen
Thema: Request mehrmals durchführen, wie for Schleife benutzen?
Antworten: 30
Zugriffe: 5197

Re: Request mehrmals durchführen, wie for Schleife benutzen?

Jep, war eine blöde Frage;)

Hat nicht auf Anhieb geklappt, aber mit Probieren bin ich auf das richtige Ergebnis gekommen:

Code: Alles auswählen

import requests
response = requests.get("blabla")
data = response.json()
Hallo = data[0]["status"]
print(Hallo)