Hallo!
Ich würde euch gern nach eurer Meinung bzgl. der richtigen DB Wahl fragen:
Also im Laufe der Jahre haben sich hunderte Excel Tabellen mit Daten aus versch. biologischen Experimenten angesammelt und nun lebt das Chaos
Wir würden das ganze nun gerne in eine DB packen, nur die Frage ist, in welche. Hier mal eine kurze Zusammenfassung:
- unter 100.000 Entities
- jedes mit einer unterschiedlichen Anzahl von Daten und Typ pro Experiment (also viele Tabellen, die miteinander in Verbindung stehen)
- gleichzeitiger Zugriff ist zweitrangig
- muss unter Windows laufen
- GUI, User fragt nach Keyword und bekommt alle Daten dazu
Das ganze sollte mit möglichst wenig Aufwand realisierbar sein, da ich eigentlich im Labor stehe, d.h. das ganze nur als nebenher mache...
Was würdet ihr empfehlen? Ich habe leider nicht so den Einblick in DB's. Ich habe bis jetzt nur Sqlite3 verwendet.
Bin für jeden Hinweis dankbar
Stefanie
Datenbank Entscheidung (biolog. Experiment Daten)
http://www.snowflake-sl.info/index.html
- cofi
- Python-Forum Veteran
- Beiträge: 4432
- Registriert: Sonntag 30. März 2008, 04:16
- Wohnort: RGFybXN0YWR0
Sieht fuer mich so aus, als waere Sqlite sehr geeignet.
Michael Markert ❖ PEP 8 Übersetzung ❖ Tutorial Übersetzung (3.x) ⇒ Online-Version (Python 3.3) ❖ Deutscher Python-Insider ❖ Projekte
-
- Python-Forum Veteran
- Beiträge: 16025
- Registriert: Freitag 20. Juni 2003, 16:30
- Kontaktdaten:
Dito, scheint ziemlich perfekt für SQLite zu sein.cofi hat geschrieben:Sieht fuer mich so aus, als waere Sqlite sehr geeignet.
Hmm, ob jetzt ein Tipp von DasIch kommt, Redis zu nutzen?
My god, it's full of CARs! | Leonidasvoice vs (former) Modvoice
Ok, danke! Dann bleib ich bei Sqlite.
Schade wollte mal was neues probieren...
Schade wollte mal was neues probieren...
http://www.snowflake-sl.info/index.html
- cofi
- Python-Forum Veteran
- Beiträge: 4432
- Registriert: Sonntag 30. März 2008, 04:16
- Wohnort: RGFybXN0YWR0
Dich haelt niemand davon ab Allerdings faellt das Einarbeiten in ein neues DBMS nicht gerade unter "wenig Aufwand".
Michael Markert ❖ PEP 8 Übersetzung ❖ Tutorial Übersetzung (3.x) ⇒ Online-Version (Python 3.3) ❖ Deutscher Python-Insider ❖ Projekte
- noisefloor
- User
- Beiträge: 3882
- Registriert: Mittwoch 17. Oktober 2007, 21:40
- Wohnort: WW
- Kontaktdaten:
Hallo,
Gruß, noisefloor
Je nachdem, wie komplex das ganze ist, kann das Normalisieren der DB schon aufwendig sein.- jedes mit einer unterschiedlichen Anzahl von Daten und Typ pro Experiment (also viele Tabellen, die miteinander in Verbindung stehen)
Eine GUI ist nie wenig Aufwand, wenn man die selber schreiben will (muss).- GUI,
Gruß, noisefloor
Klar, dass spricht eindeutig dafür bei SQlite zu bleiben.cofi hat geschrieben:Dich haelt niemand davon ab Allerdings faellt das Einarbeiten in ein neues DBMS nicht gerade unter "wenig Aufwand".
Sehr komplex. Die Datenstruktur und Typen können sich auch ständig ändern. Daher muss die DB auch flexibel sein.noisefloor hat geschrieben:Je nachdem, wie komplex das ganze ist, kann das Normalisieren der DB schon aufwendig sein.
GUI ist unverzichtbar, also werde ich es wohl mit wxPython selber machen müssen...
Na gut, ich hatte gehofft es gebe vielleicht eine Alternative aber dann bleib ich wohl beim Alten
Mir grauts jetzt schon vor den ganzen Excel Tabellen
http://www.snowflake-sl.info/index.html
Danke, schau ich mir mal an!gkuhl hat geschrieben:Vielleicht ist der SQLite Database Browser für dich ja schon GUI genug.
Grüße
Gerrit
http://www.snowflake-sl.info/index.html
An der Stelle vielleicht auch einen Blick wert:
http://code.google.com/p/sqlite-manager/
http://code.google.com/p/sqlite-manager/