Version 1:
Kopieren des Ordners mit sämtlichen Files auf in Summe 20 Stück (Ordner01, Ordner02,...) Anpassen der Parametersets, sodass je Ordner jeweils nur ca. 5000 Rechenvorgänge stattfinden = ca. 1 Stunde Rechenlauf und 50 Ordner. Starten des Skript jeweils im Terminal.
Version 2:
durch:
Code: Alles auswählen
from multiprocessing import Process
Process(target=iteration_01).start()
Process(target=iteration_02).start()
Process(target=iteration_03).start()
Version 3:
Führte mich zu threading (Python 3), wobei ich hier komplett hänge.
Konkrete Fragestellung:
über zB. 50 def Positionen möchte ich die Laufzeit für den bereits erfolgreich durchlaufenden Berechnungslauf mittels parallel automatisch laufenden Berchnungsläufen verkürzen. Ist da eurer Meinung nach meine Version 2, oder 3 die Richtigere oder bin ich sowieso auf einem falschen Weg, wenn ja, bitte um einen Gedankenanstoß.
Danke