Moin!
Sorry, ich weiß nicht ganz genau, nach was ich hier suche, deshalb die wenig aussagekräftige Überschrift.
Ich möchte folgende Problemstellung angehen:
Ich habe einen SDR Messempfänger, der Hochfrequenz über ein sehr breites Frequenzspektrum messen kann.
Das Ergebnis ist, dass ich zu einem Signal auf einer Frequenz f einen Wert der Leistung am Empfängereingang (P) bekomme.
Jetzt weiß ich aber, dass der Empfänger nicht linear misst. Die Abweichung der Signalleistung am Eingang ist frequenzabhängig unterschiedlich.
Weil ich aber eine definierte Signalquelle habe, kann ich eine Abweichungstabelle erstellen. Dies muss aber leider semiautomatisch funktionieren. Deshalb kann ich die Messung nur an bestimmten Punkten über den gesamten Frequenzbereich durchführen.
Wie kann ich jetzt über meine Abweichungstabelle sinnvoll "interpolieren", damit ich eine beliebige Frequenz möglichst genau kompensiert messen kann?
Ich bin sicher, sowas wurde schon vielfach besprochen, ich weiß nur nicht so richtig, wonach ich suchen soll.
Am liebsten würde ich nachher eine function schreiben die so "p_true = compensate(p_in, f)" aussieht
Für alle Hinweise dankbar. (und ähm Mathe hab ich abgewählt - war ein Fehler - aber geht vorsichtig mit mir um )
Gruß
Andy
Kompensieren von Messtoleranzen
Dazu musst du eine Kalibrationskurve bestimmen. Hier zb https://weightinginbayesianmodels.githu ... round.html wird das diskutiert. Das ist zwar R, Ähnliches findet sich aber sicher auch für Python. Du musst ein passendes Modell wählen, das kann hier natürlich keiner kennen, wir haben deinen Empfänger und die notwendigen Testquellen nicht.