Ist es möglich, mit SQLAlchemy Tabellen datenbankunabhänig zu exportieren und wieder zu importieren? Zum Thema "export" verrät die Doku leider nicht viel.
Wenn SQLAlchemy selbst das nicht kann, wie könnte man das machen?
Datenbank unabhängiger Export mit SQLAlchemy?
Das Schema selbst brauche ich eigentlich nicht. Das wird von den Model erzeugt. CSV ist problematisch, weil auch Texte mit \n, " und , usw gespeichert werden. Müsste man ein Zeichen nehmen, was garantiert nicht vorkommt
Das schwierigste beim Programmieren ist, sinnvolle Variablen- und Funktionsnamen zu finden :lol:
@burli: Dann serialisiere halt auch den Inhalt der Tabellen in ein Format, dass solche Daten verarbeiten kann, z.B. JSON oder irgendein XML-Format. Gerade wenn Du auf das Schema keine Rücksicht zu nehmen brauchst, ist das doch nicht weiter schwer ...
@DasIch: Kommt CSV wirklich mit Zeilenumbrüchen in einzelnen Zellen klar?
@DasIch: Kommt CSV wirklich mit Zeilenumbrüchen in einzelnen Zellen klar?
Zuletzt geändert von lunar am Mittwoch 19. Januar 2011, 21:48, insgesamt 1-mal geändert.
@lunar: Ja damit kommt CSV klar. Das ist ein komplizierteres Format als viele denken. Eine Zeile = ein Datensatz gilt zum Beispiel nicht!
- noisefloor
- User
- Beiträge: 4149
- Registriert: Mittwoch 17. Oktober 2007, 21:40
- Wohnort: WW
- Kontaktdaten:
Hallo,
eine mögliche Lösung, die ich im Buch "Essential SQLAlchemy" gesehen haben:
So hat man das DB Schema übertragen, Daten sind ja dann kein Problem mehr. 
BTW: Das Buch basiert auf SA 0.4.x
Gruß, noisefloor
eine mögliche Lösung, die ich im Buch "Essential SQLAlchemy" gesehen haben:
Code: Alles auswählen
import ...
meta1 = MetaData('postgres://...', reflect=True)
meta2 = MetaData('mysql://...')
for table in meta1.table_iterator():
table.tometadata(meta2)
meta2.create_all()

BTW: Das Buch basiert auf SA 0.4.x
Gruß, noisefloor