Bei großen Datenmenge wird Array als Liste behandelt
Verfasst: Freitag 17. April 2020, 10:06
Hallo,
Ich arbeite gerade an einem Programm für machinelles Lernen und habe mich mit gaussian processes beschäftigt. Das Programm bekommt Daten aus einer Datenbank, die mit mySQL abgefragt werden. Die Abfrage funktioniert soweit, ebenso wie das Programm bei bis zu 410 Datenpaaren (timestamp + Messwert). Sobald ich die SQL-Abfrage nun aber auf 411 oder mehr limitiere bekomme ich folgende Fehlermeldung:
y_pred, std = model.predict(test_series.reshape(-1, 1), return_std=True)
AttributeError: 'list' object has no attribute 'reshape'
Dass die reshape-Funktion bei einer Liste nicht funktioniert ist mir bewusst. Aber das seltsame ist, dass ich test_series ja von einer Liste zu einem Array (mithilfe von numpy) zuvor umwandle. Die Datenpaare habe ich schon überprüft, keine Auffälligkeiten. Und da die unlimitierte Abfrage eigentlich 13.000 Datenpaare beinhaltet, und ich den Fall von leeren Datenfelder abdecke sollten auch hierbei die meisten Probleme umgangen sein.
Kann es sein, dass es eine maximale Größe für ein Array gibt, welches man reshapen möchte? Oder denkt ihr mein Problem entsteht schon deutlich früher im Code?
Ich arbeite gerade an einem Programm für machinelles Lernen und habe mich mit gaussian processes beschäftigt. Das Programm bekommt Daten aus einer Datenbank, die mit mySQL abgefragt werden. Die Abfrage funktioniert soweit, ebenso wie das Programm bei bis zu 410 Datenpaaren (timestamp + Messwert). Sobald ich die SQL-Abfrage nun aber auf 411 oder mehr limitiere bekomme ich folgende Fehlermeldung:
y_pred, std = model.predict(test_series.reshape(-1, 1), return_std=True)
AttributeError: 'list' object has no attribute 'reshape'
Dass die reshape-Funktion bei einer Liste nicht funktioniert ist mir bewusst. Aber das seltsame ist, dass ich test_series ja von einer Liste zu einem Array (mithilfe von numpy) zuvor umwandle. Die Datenpaare habe ich schon überprüft, keine Auffälligkeiten. Und da die unlimitierte Abfrage eigentlich 13.000 Datenpaare beinhaltet, und ich den Fall von leeren Datenfelder abdecke sollten auch hierbei die meisten Probleme umgangen sein.
Kann es sein, dass es eine maximale Größe für ein Array gibt, welches man reshapen möchte? Oder denkt ihr mein Problem entsteht schon deutlich früher im Code?