Schnelles erzeugen von *.dbf-Files

Installation und Anwendung von Datenbankschnittstellen wie SQLite, PostgreSQL, MariaDB/MySQL, der DB-API 2.0 und sonstigen Datenbanksystemen.
Antworten
Benutzeravatar
tromai
User
Beiträge: 92
Registriert: Mittwoch 26. April 2006, 11:20

Hallo zusammen,

kann mir jemand weiterhelfen wie ich schnell eine große Zahl von Records in ein dbf-File einlesen kann. Ich benutze momentan dbfpy und habe nur die Möglichkeit gefunden einzelne Records auf einmal abzuspeichern. Was ich bräuchte ist eine Möglichkeit 810000 Records in einem Rutsch in ein dbf-File zu speichern. dbfpy ist leider sehr schlecht dokumentiert (zumindest habe ich bisher keine gute Doku gefunden).
Ich bin jetzt nicht unbedingt auf dbfpy festgelegt. Kann mir jemand weiterhelfen.

Danke schonmal im voraus.

Grüße tromai

EDIT: Also da die Filegröße und der Aufbau immer gleich sind, habe ich jetzt den Header von einem der Files kopiert und schreibe die einzelnen Records einfach als String hinten dran. Das macht das ganze deutlich schneller. Ich bin jetzt von 1min 17sec auf 6sec gekommen. Ich will das ganze zwar noch mehr optimieren, allerdings wird die Zeit an anderer Stelle verbrasst. Die Sache hat sich also erledigt.
Zuletzt geändert von tromai am Dienstag 7. August 2007, 08:57, insgesamt 1-mal geändert.
BlackJack

Ich sehe das Problem nicht ganz!? Schreib eine Schleife die 810000 einzelne Datensätze speichert und gut ist.
Benutzeravatar
tromai
User
Beiträge: 92
Registriert: Mittwoch 26. April 2006, 11:20

Während du geantwortet hast habe ich etwas dazueditiert. Das Problem war die Schreibgeschwindigkeit.
Antworten