Hallo zusammen,
kann mir jemand sagen, ob "anydbm" eine Begrenzung in Bezug auf Anzahl Datensätze hat? Bzw., ist es möglich dort 1 Million Datensätze zu speichern?
CU,
API
anydbm - Anzahl Datensätze
- noisefloor
- User
- Beiträge: 4149
- Registriert: Mittwoch 17. Oktober 2007, 21:40
- Wohnort: WW
- Kontaktdaten:
Hallo,
anydbm an sich ist keine Datenbank / KV Store, sondern ein Modul, dass das best-mögliche DBM-Modul nimmt, was installiert ist.
Das wiederum hängt z.B. vom OS und der Python Version ab. Python 2.x+Linux bringt bsddb mit (=Berkley DB), dass sollte mit 1 Mio Datensätze kein Problem haben. Die Windows-Version (?) und Python 3.x bringen nur "langsamere" Implementierungen mit. Heißt: 1 Mio Datensätze könnten etwas "zäh" werden... Habe ich selber aber nie ausprobiert.
IMHO wäre es besser, wenn die ein "richtges" KV-Store wie Redis, Keyscale oder Tokyo Cabinet benutzt. Die haben damit kein Problem. Python-Bindings gibt's für alle drei.
Gruß, noisefloor
anydbm an sich ist keine Datenbank / KV Store, sondern ein Modul, dass das best-mögliche DBM-Modul nimmt, was installiert ist.
Das wiederum hängt z.B. vom OS und der Python Version ab. Python 2.x+Linux bringt bsddb mit (=Berkley DB), dass sollte mit 1 Mio Datensätze kein Problem haben. Die Windows-Version (?) und Python 3.x bringen nur "langsamere" Implementierungen mit. Heißt: 1 Mio Datensätze könnten etwas "zäh" werden... Habe ich selber aber nie ausprobiert.
IMHO wäre es besser, wenn die ein "richtges" KV-Store wie Redis, Keyscale oder Tokyo Cabinet benutzt. Die haben damit kein Problem. Python-Bindings gibt's für alle drei.
Gruß, noisefloor