Splines Interpolation für große Datenmengen
Verfasst: Dienstag 23. Oktober 2007, 15:14
Hallo zusammen,
vielleicht kann mir ja jemand weiterhelfen:
Ich suche eine Möglichkeit eine exakte univariate Splinesinterpolation auf eine "große" Datenmenge anzuwenden.
Es sollen aus eine Eingangsdatenmenge von ca. 150000 Werten ca. 600000 Werte Interpoliert werden.
Bisher benutze ich SciPy.interpolate.fitpack2.UnivariateSpline. Mit "set_smoothing_factor(0)" erreiche ich, dass die Eingangsdaten nicht verfälscht werden und erhalten bleiben. Andernfalls würde ein Smooth-Spline berechnet werden.
Das Problem ist, dass die interpolation sehr lange dauert (gehen tut es).
Wenn ich SciPy.interpolate.fitpack2.LSQUnivariateSpline verwende geht es schneller, aber ich habe das Problem, dass:
a) Die Eingangsdaten verfälscht werden da sich kein Smoothing-Factor setzen lässt
und b) Ich eine Reihe von Interpolierten Punkten mit dem Wert "nan" zurückbekomme.
Kann mir vielleicht jemand einen Tip geben, wie ich die Sache in den Griff bekomme?
Grüße
Maik
vielleicht kann mir ja jemand weiterhelfen:
Ich suche eine Möglichkeit eine exakte univariate Splinesinterpolation auf eine "große" Datenmenge anzuwenden.
Es sollen aus eine Eingangsdatenmenge von ca. 150000 Werten ca. 600000 Werte Interpoliert werden.
Bisher benutze ich SciPy.interpolate.fitpack2.UnivariateSpline. Mit "set_smoothing_factor(0)" erreiche ich, dass die Eingangsdaten nicht verfälscht werden und erhalten bleiben. Andernfalls würde ein Smooth-Spline berechnet werden.
Das Problem ist, dass die interpolation sehr lange dauert (gehen tut es).
Wenn ich SciPy.interpolate.fitpack2.LSQUnivariateSpline verwende geht es schneller, aber ich habe das Problem, dass:
a) Die Eingangsdaten verfälscht werden da sich kein Smoothing-Factor setzen lässt
und b) Ich eine Reihe von Interpolierten Punkten mit dem Wert "nan" zurückbekomme.
Kann mir vielleicht jemand einen Tip geben, wie ich die Sache in den Griff bekomme?
Grüße
Maik