csv mit Separator-Zeichen im Einzeleintrag

Wenn du dir nicht sicher bist, in welchem der anderen Foren du die Frage stellen sollst, dann bist du hier im Forum für allgemeine Fragen sicher richtig.
Antworten
Thomas67
User
Beiträge: 5
Registriert: Montag 2. März 2026, 21:29

Salve

ich bin neu hier und noch nicht sicher, wo ich dieses Thema posten soll

Ich lese in Python ein csv-File ein, welches Kommata als Spaltenseparatoren verwendet.
Das File lese ich zuerst mit .readlines und liefert einzelne Zeilen.
Diese Zeilen teile ich mit split auf
In der ersten Zeile bestimme ich die Spaltenköpfe und die gesuchten Spaltennummern.

Allerdings habe ich in manchen Zeilen Einträge, die in der Spalte auch ein Komma im Eintrag enthalten
Im Debugger werden diese Einträge mit Anführungszeichen angezeigt.
Die Split-Funktion ignoriert mir diese und teilt dies auf.

Beispiel
Zeile: 'Eintrag1,Eintrag2,"Eintrag3, 4",Eintrag5'
Beabsichtigte, gewünschte Aufteilung wäre ( die // zur Verdeutlichung )
Eintrag1 // Eintrag2 // Eintrag3, 4 // Eintrag5
Der Split liefert aber
'Eintrag1 // Eintrag2 // Eintrag3 // 4 // Eintrag5

Wie schaffe ich das, dass der dritte Spalteneintrag als "Eintrag3, 4" nach dem Split erhalten bleibt?

Danke
Thomas
geraldfo
User
Beiträge: 82
Registriert: Samstag 28. Januar 2023, 20:19
Wohnort: Nähe Wien
Kontaktdaten:

Benutzeravatar
noisefloor
User
Beiträge: 4307
Registriert: Mittwoch 17. Oktober 2007, 21:40
Wohnort: WW
Kontaktdaten:

Hallo,

die Lösung ist: nicht selber machen, sondern das passende Modul verwenden, siehe vorheriger Beitrag. Da kannst du dem CSV Reader auch mitgeben, was der `separator` ist - nämlich bei dir das Komma - und was der `quotechar` ist - nämlich bei dir die Anführungszeichen.

Gruß, noisefloor
Thomas67
User
Beiträge: 5
Registriert: Montag 2. März 2026, 21:29

Danke
werde ich testen; hatte ich bisher nur am Rande gesehen, aber beim ersten Lesen immer ein paar Sachen gesehen, die mir da quer schossen, bswp. dass wohl alles per String kommt und manchmal mit umschlossenen Anführungszeichen.
Hat jemand einen Tip für aussagekräftigen Beispielcode?
Danke
thomas
Benutzeravatar
__blackjack__
User
Beiträge: 14344
Registriert: Samstag 2. Juni 2018, 10:21
Wohnort: 127.0.0.1
Kontaktdaten:

@Thomas67: Wenn Du die einzelnen Zeilen (= Zeichenketten) selber zerlegst, bekommst Du ja auch Zeichenketten. Und Anführungszeichen in einzelnen Zellen bekommt man nur wenn da auch tatsächlich Anführungszeichen drin sind. Bei Deinem Beispiel sind keine _in_ den Zellen:

Code: Alles auswählen

>>> next(csv.reader(io.StringIO('Eintrag1,Eintrag2,"Eintrag3, 4",Eintrag5', newline="")))
['Eintrag1', 'Eintrag2', 'Eintrag3, 4', 'Eintrag5']
Tipp für Beispielcode wäre die Dokumentation vom `csv`-Modul.
“It is easier to optimize correct code than to correct optimized code.” — Bill Harlan
Thomas67
User
Beiträge: 5
Registriert: Montag 2. März 2026, 21:29

Danke!
Thomas67
User
Beiträge: 5
Registriert: Montag 2. März 2026, 21:29

Danke! Funktioniert..... aber wie erwartet bekomme ich nun alles als Text und muss numerische Werte halt entsprechend umwandeln. Aber ist bei csv an sich auch nicht anders zu erwarten...
Benutzeravatar
snafu
User
Beiträge: 6958
Registriert: Donnerstag 21. Februar 2008, 17:31
Wohnort: Gelsenkirchen

@Thomas67:
Richtig, die einzelnen Felder muss man in die passenden Typen konvertieren. Je nach Programmierstil könnte man diese auch per zip() mit der Ausgabe des Readers kombinieren. Etwas mehr Komfort gibt einem die read_csv()-Funktion der pandas-Bibliothek mit dem dtype-Parameter. Dafür muss man natürlich pandas inkl. numpy installiert haben.

Falls dir Dezimalzahlen in deutscher Schreibweise vorliegen, kannst du das Komma und ggf. den Punkt als Tausendertrenner mittels replace() umwandeln oder atof() aus dem locale-Modul der Standardbibliothek verwenden. Für letzteres müssen aber vorab die Spracheinstellungen (setlocale) auf German eingestellt werden, sonst funktioniert die Umwandlung nicht.

EDIT: Pandas bietet einem auch convert_dtypes für eine automatische Umwandlung der Daten. Das funktioniert allerdings nicht mit den besagten deutschsprachigen Kommazahlen. Deine Angabe aus dem ersten Beitrag lässt entsprechende Vermutungen bei mir aufkommen...
Benutzeravatar
snafu
User
Beiträge: 6958
Registriert: Donnerstag 21. Februar 2008, 17:31
Wohnort: Gelsenkirchen

Nachtrag: read_csv() bietet einem die Parameter thousands und decimal. Die kann man für deutsche Zahlen anpassen. Dann funktioniert auch convert_dtypes() auf Anhieb. Pandas (falls dir noch nicht bekannt) ist ne umfangreiche Bibliothek und wegen der der Numpy-Abhängigkeit auf manchen Systemen nicht ohne Weiteres verfügbar. Aber sie kann eben auch vieles.
Benutzeravatar
DeaD_EyE
User
Beiträge: 1332
Registriert: Sonntag 19. September 2010, 13:45
Wohnort: Hagen
Kontaktdaten:

snafu hat geschrieben: Mittwoch 4. März 2026, 02:59 Nachtrag: read_csv() bietet einem die Parameter thousands und decimal.
Wo steht das in der Doku? Hab gerade danach gesucht und nichts gefunden.
sourceserver.info - sourceserver.info/wiki/ - ausgestorbener Support für HL2-Server
Benutzeravatar
__blackjack__
User
Beiträge: 14344
Registriert: Samstag 2. Juni 2018, 10:21
Wohnort: 127.0.0.1
Kontaktdaten:

@DeaD_EyE: Das steht in der Dokumentation von der Funktion. Und zwar bis zurück zur Version 1.0, dass heisst die beiden Argumente gab es schon von Anfang an: pandas.read_csv()
“It is easier to optimize correct code than to correct optimized code.” — Bill Harlan
Benutzeravatar
DeaD_EyE
User
Beiträge: 1332
Registriert: Sonntag 19. September 2010, 13:45
Wohnort: Hagen
Kontaktdaten:

__blackjack__ hat geschrieben: Mittwoch 4. März 2026, 15:51 @DeaD_EyE: Das steht in der Dokumentation von der Funktion. Und zwar bis zurück zur Version 1.0, dass heisst die beiden Argumente gab es schon von Anfang an: pandas.read_csv()
Da kann ich in der Python-Doku lange suchen :D
Pandas ist für mich ein rotes Tuch.
sourceserver.info - sourceserver.info/wiki/ - ausgestorbener Support für HL2-Server
Thomas67
User
Beiträge: 5
Registriert: Montag 2. März 2026, 21:29

Danke Euch
hab mit python grad erst vor 2-3 Wochen angefangen und bin noch in der Orientierung. s Meiste von Panda&co schopn gelesen oder gehört, aber nichts davon bisher bewertbar meinerseits
Pedroski55
User
Beiträge: 46
Registriert: Freitag 25. Juli 2025, 00:20

Die Lösung ist einfach selber zu machen, und hat den Vorteil, dass man sieht, was da genau ablaüft. Lehrreich!

1. Suche alle Textteile des Formats: Zahl Komma Leertaste Zahl und mache eine Liste.
2. Im Resultat von 1. ersetze jeweils , mit ; (oder sonstwas) und ersetze zB '3, 4' mit '3; 4'
3. Spalte zeile dann an , wie gewollt.
4. Falls gewünscht, entferne " und ; man kann genauso gut so lassen

Code: Alles auswählen

import regex as re
from random import randint 
import csv

csv_file = '/home/peterr/temp/csvs/eintrag.csv'
zeile = 'Eintrag1,Eintrag2,"Eintrag3, 4",Eintrag5,"Eintrag6, 7",Eintrag8,"Eintrag9, 10",Eintrag11,Eintrag12'
# suche alle Textteile des Formats: Zahl Komma Leertaste Zahl
e = re.compile(r'\d+, \d+')
    
def sauber_machen(neu_zeile):
    res = e.findall(neu_zeile) # ergibt ['3, 4', '6, 7', '9, 10'] hier
    for p in res:
        neu_p = p.replace(',', ';')
        neu_zeile = re.sub(p,  neu_p, neu_zeile)
        # geht auch so
        #neu_zeile = neu_zeile.replace(p, neu_p)
    # nun kann man an , spalten
    spalten = neu_zeile.split(',')
    # entferne ; und die " wenn sie stören
    for i in range(len(spalten)):
        spalten [i] = spalten [i].replace(';', ',').replace('"', '')
    return  spalten
spalten = sauber_machen(zeile)

Da hat man nun die sauberen Spaltenkopfnamen.
['Eintrag1', 'Eintrag2', 'Eintrag3, 4', 'Eintrag5', 'Eintrag6, 7', 'Eintrag8', 'Eintrag9, 10', 'Eintrag11', 'Eintrag12']
gleich machen wir ein bißchen Inhalt und speichern als csv

Code: Alles auswählen

# stelle etwas Inhalt her
data = []
for i in range(10):
    row = []
    for j in range(9):
        num= randint(1, 25)
        row. append(num)
    data.append(row)

with open(csv_file, 'w', newline='') as cf:
    csvwriter = csv.writer(cf, delimiter=',', quotechar='"', quoting=csv.QUOTE_MINIMAL)
    csvwriter.writerow(spalten)
    csvwriter.writerows(data)
Benutzeravatar
sparrow
User
Beiträge: 4642
Registriert: Freitag 17. April 2009, 10:28

@Pedroski55: Nein, bitte nicht selber machen sondern das CSV-Modul benutzen. Dein Code ist ein gutes Beispiel dafür, warum man das auf gar keinen Fall selber machen sollte. Du hast dir da irgendwas zusammengefummelt, was irgendwie zu den Beispieldaten passt, aber schon bei der kleinsten Abweichung nicht funktioniert.

Code: Alles auswählen

'"1,2",Eintrag1,Eintrag2,"Eintrag3, 4",Eintrag5,"Eintrag6,7",Eintrag8,"Eintrag9,10",Eintrag11,"Eint\"rag12"
['1', '2', 'Eintrag1', 'Eintrag2', 'Eintrag3, 4', 'Eintrag5', 'Eintrag6', '7', 'Eintrag8', 'Eintrag9', '10', 'Eintrag11', 'Eintrag12']'
Und du machst hier wieder die selben Fehler, auf die du schon in anderen Threads hingewiesen wurdest. Das ist dann genau das Gegenteil von lehrreich, weil es nicht so wirkt, als würde jemand lernen. Zum Beispiel verwendest du wieder das "regex" Modul, obwohl "re" reichen würde.


@Thomas67: Nochmal zur Bekräftigung: Die Lösung ist nach wie vor das csv Modul.
Sirius3
User
Beiträge: 18377
Registriert: Sonntag 21. Oktober 2012, 17:20

@Pedroski55: es ist zwar gut, etwas selbst zu machen, um Dinge zu verstehen. Dann sollte man aber das csv-Format und seine Eigenheiten wirklich verstanden haben. Du hast jetzt einen Spezialfall abgedeckt, der bei kleinen Abweichungen aber wieder zu Fehlern führt. Also nein, nicht selber machen, sondern was fertiges, richtiges, gut getestetes verwenden.

Das regex-Modul wird nicht gebraucht, da man genausogut re verwenden könnte.
`e` ist ein besonders nichtssagender Variablenname, zumal noch global. Globale Konstanten werden komplett groß geschrieben: TWO_NUMBERS_REGEX
`sauber_machen` ist ein schlechter Funktionsname, weil er nicht sagt, was eigentlich gemacht wird, nämlich einen String in Einzelteile zerlegen.
`neu_zeile` als Argumentname ist schlecht, weil der Funktion egal ist, ob sie mit einer neu_zeile oder einer alt_zeile aufgerufen wird.
Und wieder verwendest Du re.sub mit einem nutzerdefinierten String als Regulären Ausdruck, bei dem alles mögliche an Sonderzeichen drin sein könnte. Allein ein * oder ? macht schon die ganze Ersetzung kaputt. Deine auskommentierte Zeile wäre da schon weniger fehleranfällig. Da du aber eh reguläre Ausdrücke einsetzt, hättest Du das ganze Problem gleich damit lösen können.
Über einen Index iteriert man nicht, weil es lesbarer ist, direkt mit den Elementen zu arbeiten; eine Liste verändert man nicht, sondern erzeugt einfach eine neue.

Code: Alles auswählen

import re

TWO_NUMBERS_REGEX = re.compile(r"\d+, \d+")

def split_line_with_special_handling_of_comma_separated_numbers(line):
    fixed_line = TWO_NUMBERS_REGEX.sub(lambda m: m.group(0).replace(",", ";"), line)
    cells= fixed_line.split(",")
    return [
        cell.replace(";", ",").replace('"', "")
        for cell in cells
    ]
ABER: die ganze Funktion ist sehr Fehleranfällig. Was passiert, wenn tatsächlich ein ; in einer Zelle vorkommt, wenn eine Zelle tatsächlich mit einer Zahl beginnt, oder wenn auch noch Zeichen wie " innerhalb einer Zelle vorkommen? Oder andere Zeichen, die ein Quoting erforderlich machen?
Deshalb gibt es ja das csv-Modul, das all das korrekt behandelt. Weil sich da Leute genau überlegt haben, welche Fälle alles vorkommen können und es genau definiert ist, wie dann reagiert wird.
Da läuft sehr viel mehr ab, als Du glaubst.
Antworten