Die Suche ergab 24 Treffer

von Nras
Freitag 3. Februar 2017, 12:38
Forum: Allgemeine Fragen
Thema: Schleifen abbruch nach gewisser Zeit
Antworten: 16
Zugriffe: 3852

Re: Schleifen abbruch nach gewisser Zeit

Hallo, @123GuteLaune: Das sollte man nicht nur *eigentlich* nicht machen, sondern das sollte man wirklich *nicht* machen. Selbst wenn es ”funktioniert” kannst Du nach dem ersten Timeout im Grunde keinen Ergebnissen mehr trauen, weil Du nicht weisst ob sich das alles noch in einem gültigen Zustand be...
von Nras
Mittwoch 1. Februar 2017, 14:16
Forum: Allgemeine Fragen
Thema: Schleifen abbruch nach gewisser Zeit
Antworten: 16
Zugriffe: 3852

Re: Schleifen abbruch nach gewisser Zeit

Moin, man kann da meines Erachtens nach schon etwas machen. Ich würde die function einfach wrappen und mit dem @timeout-Dekorator von dieser Stackoverflow Antwort versehen. Statt dem if-else Teil mit der händisch gepflegten Liste mit den indices, würdest du dann einen try-except Teil einbauen. Salop...
von Nras
Dienstag 1. Dezember 2015, 15:45
Forum: Allgemeine Fragen
Thema: Multhithreaded Job anhalten, bisher fertige results holen.
Antworten: 12
Zugriffe: 1329

Re: Multhithreaded Job anhalten, bisher fertige results holen.

Falls es noch jemanden interessiert. Mein poor man's pool.join() mit timeout funktioniert wunderbar. Es gab noch einen Bug, bei dem mir noch später Exceptions um die Ohren flogen, wenn nachträglich noch Jobs fertig wurden, bevor die Methode anständig zuende war. Das habe ich gelöst, in dem ich nach ...
von Nras
Montag 30. November 2015, 11:51
Forum: Allgemeine Fragen
Thema: Multhithreaded Job anhalten, bisher fertige results holen.
Antworten: 12
Zugriffe: 1329

Re: Multhithreaded Job anhalten, bisher fertige results holen.

Ich kann obigen post leider nicht mehr editieren. Die erste Zeile ist falsch eingerückt, sie muss 4 Zeichen weiter eingerückt werden.
von Nras
Montag 30. November 2015, 10:56
Forum: Allgemeine Fragen
Thema: Multhithreaded Job anhalten, bisher fertige results holen.
Antworten: 12
Zugriffe: 1329

Re: Multhithreaded Job anhalten, bisher fertige results holen.

Hallo, danke für die vielen Antworten. Ich habe noch mal über das Problem nachgedacht, und bin der Meinung, dass ich gerne ein pool.join() mit Timeout haben möchte, was allerdings wohl nicht möglich ist. Daher dachte ich, ich baue mir mein eigenes pool.join() (ohne zu wissen, wie das im originalen i...
von Nras
Freitag 27. November 2015, 17:44
Forum: Allgemeine Fragen
Thema: Multhithreaded Job anhalten, bisher fertige results holen.
Antworten: 12
Zugriffe: 1329

Multhithreaded Job anhalten, bisher fertige results holen.

Hallo, ich befasse mich gerade mit Multlthreading. Der Anwendsungsfall ist: Ich möchte gleichzeitig Daten von verschiedenen Quellen holen. Manchmal reagiert beispielsweise eine der Quellen sehr langsam und hält den gesamten Prozess auf. Für diesen Fall möchte ich gerne das Abholen der Daten anhalten...
von Nras
Freitag 20. Juni 2014, 13:16
Forum: Webframeworks
Thema: DJANGO_SETTINGS_MODULE innerhalb von Python setzen
Antworten: 4
Zugriffe: 1834

Re: DJANGO_SETTINGS_MODULE innerhalb von Python setzen

Alles klar,

danke.
von Nras
Freitag 20. Juni 2014, 11:53
Forum: Webframeworks
Thema: DJANGO_SETTINGS_MODULE innerhalb von Python setzen
Antworten: 4
Zugriffe: 1834

Re: DJANGO_SETTINGS_MODULE innerhalb von Python setzen

Hallo Sirius, das stimmt. Wenn in meiner Shell als DJANGO_SETTINGS_MODULE beispielsweise 'pfad.settings1' gesetzt ist und ich sowas ausführe wie hier, dann wird settings2 benutzt. import os os.environ['DJANGO_SETTINGS_MODULE'] = 'pfad.settings2' Wenn ich dann aber Sachen von der DB herunterlade (als...
von Nras
Freitag 20. Juni 2014, 08:27
Forum: Webframeworks
Thema: DJANGO_SETTINGS_MODULE innerhalb von Python setzen
Antworten: 4
Zugriffe: 1834

DJANGO_SETTINGS_MODULE innerhalb von Python setzen

Hallo, zur Zeit arbeite ich auf verschiedenen Datenbanken und habe daher verschiedene settings_*.py, um die Datenbanken entsprechend anzusprechen. Alle verfügbaren Datenbanken in einer settings_*.py ist leider keine Option, da feste Namen vergeben sind. Ich löse das Problem so, in dem ich einfach vo...
von Nras
Freitag 25. April 2014, 11:48
Forum: Allgemeine Fragen
Thema: Schleife Parallelisieren ohne später Daten zusammenzufügen
Antworten: 17
Zugriffe: 3395

Re: Schleife Parallelisieren ohne später Daten zusammenzufüg

Hallo, ich will noch eine kurze Zusammenfassung als Rückmeldung geben, falls jemand mal so ein ähnliches Problem hat und diese Seite hier findet: Es gab noch kleinere Hürden und letztenendlich habe ich mich für ``map`` und nicht ``imap_unordered`` entschieden, da mir dies simpler erscheint und mir d...
von Nras
Dienstag 22. April 2014, 08:29
Forum: Allgemeine Fragen
Thema: Schleife Parallelisieren ohne später Daten zusammenzufügen
Antworten: 17
Zugriffe: 3395

Re: Schleife Parallelisieren ohne später Daten zusammenzufüg

Hallo,

vielen Dank, ich denke, ich habe das nun verstanden.

Viele Grüße,
Nras.
von Nras
Donnerstag 17. April 2014, 13:38
Forum: Allgemeine Fragen
Thema: Schleife Parallelisieren ohne später Daten zusammenzufügen
Antworten: 17
Zugriffe: 3395

Re: Schleife Parallelisieren ohne später Daten zusammenzufüg

@BlackJack, Ich hoffe, ich falle dir nicht zu sehr zur Last :). Nun habe ich es fast verstanden. Aber (leider) kommt nun noch eine Rückfrage von mir `pool.apply_async()` führt `get_data()` ja nicht direkt aus, sondern asynchron in einem anderen Prozess. Die `apply_async()` Methode muss doch *sofort*...
von Nras
Donnerstag 17. April 2014, 10:30
Forum: Allgemeine Fragen
Thema: Schleife Parallelisieren ohne später Daten zusammenzufügen
Antworten: 17
Zugriffe: 3395

Re: Schleife Parallelisieren ohne später Daten zusammenzufüg

@BlackJack Vielen Dank für deine Mühe. Du hast recht, das ``continue`` war in dem Fall unnötig, in dem Code-Beispiel dadrüber hatte ich es aber gebraucht. Wieso wird denn aber in dem `pool.apply_async(process_file_id, (file_id, a, b, c, d))` kein ValueError ausgelöst? Dort wird doch `get_data()` auf...
von Nras
Donnerstag 17. April 2014, 09:38
Forum: Allgemeine Fragen
Thema: Schleife Parallelisieren ohne später Daten zusammenzufügen
Antworten: 17
Zugriffe: 3395

Re: Schleife Parallelisieren ohne später Daten zusammenzufüg

@BlackJack Danke, das habe ich gleich mal getestet (s.u. für lauffähiges Beispiel). Wenn ich es richtig sehe, benötige ich aber das "pool.join()" in Zeile 13 gar nicht, weil aus meiner for-Schleife nichts zusammengebaut werden muss, sondern die einzelnen Sachen direkt weggeschrieben werden...
von Nras
Mittwoch 16. April 2014, 15:13
Forum: Allgemeine Fragen
Thema: Schleife Parallelisieren ohne später Daten zusammenzufügen
Antworten: 17
Zugriffe: 3395

Re: Schleife Parallelisieren ohne später Daten zusammenzufüg

@BlackJack @Nras: Dann erstelle einfach einen Pool und verwende entweder `apply_async()` um die Funktion die das alles macht mit jeder ID und a, b, c, und d aufzurufen. Oder erstelle eine entsprechende Liste mit Elementen die diese Daten enthalten und verwende `imap_unordered()` und iteriere über da...
von Nras
Mittwoch 16. April 2014, 14:28
Forum: Allgemeine Fragen
Thema: Schleife Parallelisieren ohne später Daten zusammenzufügen
Antworten: 17
Zugriffe: 3395

Re: Schleife Parallelisieren ohne später Daten zusammenzufüg

@BlackJack Also der get_data()-Part braucht deutlich kürzer als der do_something()-Part. Jedoch benutzen beide Teilparts jeweils nur einen Kern. Ich denke, ich kann mich schlecht ausdrücken. Ich möchte CPU 1: macht data = get_data(file_ids[0], a, b) --> do_something(data, c, d) --> store. gleichzeit...
von Nras
Mittwoch 16. April 2014, 14:19
Forum: Allgemeine Fragen
Thema: Schleife Parallelisieren ohne später Daten zusammenzufügen
Antworten: 17
Zugriffe: 3395

Re: Schleife Parallelisieren ohne später Daten zusammenzufüg

Hallo, ich bin totaler Datenbank-Laie. Ehrlich gesagt bin ich mir, nach kurzer Google-Befragung, nicht sicher, was das überhaupt ist und somit weiß ich auch nicht, ob die Datenbank das zulässt. Falls das so richtig wichtig ist, kann ich das in Erfahrung bringen. Ansonsten hilft es vielleicht schon, ...
von Nras
Mittwoch 16. April 2014, 13:55
Forum: Allgemeine Fragen
Thema: Schleife Parallelisieren ohne später Daten zusammenzufügen
Antworten: 17
Zugriffe: 3395

Re: Schleife Parallelisieren ohne später Daten zusammenzufüg

Hallo, genau. Aber das Ergebnis von file_ids ist unabhängig vom Ergebnis von file_ids[i+1]. Das heißt die ganzen Berechnungen sollten für 3 file_ids parallel laufen können, nicht für eine einzelne file_id. Also jede CPU soll sich immer die nächste abzuarbeitende file_id schnappen und get_data() und ...
von Nras
Mittwoch 16. April 2014, 13:49
Forum: Allgemeine Fragen
Thema: Schleife Parallelisieren ohne später Daten zusammenzufügen
Antworten: 17
Zugriffe: 3395

Schleife Parallelisieren ohne später Daten zusammenzufügen

Hallo zusammen, nachdem ich nun einige Zeit in Python investiert habe, komme ich schon gut zurecht und kriege fast alles hin, was ich möchte. Mein Programm sieht grob zusammengefasst so aus: file_ids = ['blabla1', 'blablub19',' blablala22'] a, b, c, d = 1, 'blub', 3, 4 # dummy parameter for file_id ...
von Nras
Mittwoch 26. März 2014, 13:05
Forum: Allgemeine Fragen
Thema: Wie 3D Liste initialiseren (Pendant zu Matlab 2D Cells)
Antworten: 14
Zugriffe: 1735

Re: Wie 3D Liste initialiseren (Pendant zu Matlab 2D Cells)

Hallo, zunächst mal Danke für die Antworten. Das mit den verschachtelten Listen war nur so eine Idee, die ich inzwischen aber schon zugunsten von arrays oder dictionaries verworfen habe. Vermutlich wäre es besser, weitere Fragen in einem anderen Beitrag zu erstellen. ... es wäre vielleicht auch gut ...