Code: Alles auswählen
with open(src_filepath, "rb") as in_file:
with open(dst_filepath, "wb") as out_file:
while True:
data = in_file.read(chunk_size)
if not data:
break
out_file.write(data)
process_bar.update(len(data))
Eine Überlegung: i.d.R. kann man schon mit min. 5-10MB/s rechnen (Wenn es wirklich langsam ist) Also warum nicht eine Blockgröße von 5-10MB nehmen, dann würde process_bar.update() mindestens einmal die Sekunde aktualisiert...
Oder was dynamisches? Schauen wie lange der letzte Durchgang gedauert hat und zahl erhöhen, wenn es schneller als 1Sek. war?!?