Die Suche ergab 7 Treffer

von CptK
Freitag 4. März 2022, 15:55
Forum: Allgemeine Fragen
Thema: Trainingsdatenerstellung parallelisieren führt zu CUDA_ERROR_OUT_OF_MEMORY
Antworten: 5
Zugriffe: 499

Re: Trainingsdatenerstellung parallelisieren führt zu CUDA_ERROR_OUT_OF_MEMORY

Ich habe das Problem gefunden: Die Benutzung der tensorflow.one_hot-Funktion führt zu einer totalen Überlastung meines Arbeitsspeichers. Ich habe mir jetzt einfach eine eigene One-Hot-Funktion geschrieben, mit der alles problemlos durchläuft:
import numpy as np

def one_hot(value, depth):
result ...
von CptK
Donnerstag 3. März 2022, 11:43
Forum: Allgemeine Fragen
Thema: Trainingsdatenerstellung parallelisieren führt zu CUDA_ERROR_OUT_OF_MEMORY
Antworten: 5
Zugriffe: 499

Re: Trainingsdatenerstellung parallelisieren führt zu CUDA_ERROR_OUT_OF_MEMORY

Hier der gesamte Code inkl. Imports
import numpy as np
import pandas as pd
from random import shuffle
from tensorflow import one_hot
from sklearn import preprocessing
import multiprocessing as mp
import pickle

class Sample:
def __init__(self, trade, cols_no_normalization):
self.sample ...
von CptK
Mittwoch 2. März 2022, 19:57
Forum: Allgemeine Fragen
Thema: Trainingsdatenerstellung parallelisieren führt zu CUDA_ERROR_OUT_OF_MEMORY
Antworten: 5
Zugriffe: 499

Re: Trainingsdatenerstellung parallelisieren führt zu CUDA_ERROR_OUT_OF_MEMORY


Da Du nur Bruchstücke Deines Codes zeigst, muß man wohl raten, dass tf Tensorflow ist, und was benutzt die GPU.
Es macht also gar keinen Sinn, mit Multiprocessing zu arbeiten, weil dadurch bekommst Du auch nicht mehr GPUs.

Das Ganze soll ja eigentlich auch nicht auf der GPU laufen, aber der ...
von CptK
Mittwoch 2. März 2022, 17:52
Forum: Allgemeine Fragen
Thema: Trainingsdatenerstellung parallelisieren führt zu CUDA_ERROR_OUT_OF_MEMORY
Antworten: 5
Zugriffe: 499

Trainingsdatenerstellung parallelisieren führt zu CUDA_ERROR_OUT_OF_MEMORY

Hallo, ich habe eine Liste von Beispieldaten und möchte diese jetzt in numpy-arrays umwandeln.

Die Funktionen, die alles starten und die Parallelisierung einleiten sind folgende:

def split(data, n):
k, m = divmod(len(data), n)
return list(data[i*k+min(i, m):(i+1)*k+min(i+1, m)] for i in range(n ...
von CptK
Sonntag 20. Februar 2022, 16:39
Forum: Allgemeine Fragen
Thema: Multiprocessing immer gleich langsam
Antworten: 2
Zugriffe: 302

Multiprocessing immer gleich langsam

Hallo zusammen, ich versuche mich gerade mal an multiprocessing und habe dafür folgendes (nutzloses) Beispiel, das einfach die Summe einer Liste berechnet:
import time
import multiprocessing as mp
import sys

def split(data, n):
k, m = divmod(len(data), n)
return list(data[i*k+min(i, m):(i+1)*k ...
von CptK
Mittwoch 2. Februar 2022, 18:56
Forum: Allgemeine Fragen
Thema: pd Dataframe als Queue: Wie bekommt man das am effizientesten hin? Alternativen?
Antworten: 1
Zugriffe: 257

pd Dataframe als Queue: Wie bekommt man das am effizientesten hin? Alternativen?

Hallo, ich habe eine Klasse, die ein Pandas-Dataframe verwaltet. Index ist die Spalte 'time' vom Typ datetime. Das Dataframe hat eine maximale Größe, die über __init__ gesetzt wird.
class TimeDataManager():
def __init__(self, max_size):
self.max_size = max_size
self.data = pd.DataFrame(columns ...
von CptK
Sonntag 16. Januar 2022, 12:10
Forum: Allgemeine Fragen
Thema: Aufruf von Funktion mit Prozessen gibt Ergebnis mehr als ein Mal aus
Antworten: 1
Zugriffe: 275

Aufruf von Funktion mit Prozessen gibt Ergebnis mehr als ein Mal aus

Hallo, ich habe folgende kleine Anwendung:

from multiprocessing import Process, Queue

def reduce(que, data):
que.put(sum(data))

def calc_mean_serial(data):
return sum(data) / len(data)

def calc_mean_parallel(data, num_procs=8):
sum = 0
if __name__ == '__main__':
chunk = (int) (len(data ...